python

Recursos de programación de python
Se demostrará que se pueden implementar aplicaciones en tiempo real de manera muy fácil y escalable. Usando JavaScript (SocketIO) como lenguaje en el lado del cliente y en el lado del servidor aplicaciones basadas en Python (Flask-SocketIO), se pueden obtener resultados alucinantes tanto por la sencillez como por el rendimiento de las soluciones. Se explicará de forma sencilla y muy visual una aplicación basada en eventos e interacciones en tiempo real creada para la ocasión. Estructura de la presentación: Vista preliminar de la aplicación en tiempo real y explicación de las partes principales. Introducción a Socket.IO explicando los aspectos más importantes. Explicar las partes de la aplicación que usan Socket.IO tanto en el lado del cliente como en el del servidor. Explicación de como testear y desplegar este tipo de soluciones en entornos de producción. Ejemplo en vivo de carga de usuarios para valorar el rendimiento de estas soluciones. https://2017.codemotion.es/agenda.html #5649626120060928/5461760022675456
Para el episodio de hoy hemos pensado en hablar de las experiencias que nos han hecho aprender las mejores lecciones a lo largo de nuestra carrera. A veces sentarse a reflexionar acerca de lo que ha ido bien y lo que ha ido mal es indispensable para crecer como profesionales y como personas.El episodio se empieza a cocinar a partir de un artículo que nos dejan en el canal de Slack que está escrito por Rubén Fernández en su blog:http://charlascylon.com/2018-01-24-ojala-hubiese-tenido-un-mentor-la-charla-episodio-iDurante el episodio hablamos de un curso de Habilidades en comunicación impartido por Ferran Ramon-Cortés.Queremos agradecer a Gonzalo Nandez y Laura Santana su colaboración en el episodio.En la sección de recomendaciones hemos citado:TraefikNGrokEn la sección del rincón del oyente Jose Antonio Jimenez Toro nos dejaba estos enlaces a canales de telegram:Un Python Al Dia: https://t.me/UnPythonAlDiaAprende Python: https://t.me/aprendepythonTod@s l@s que tengáis comentarios o sugerencias para el podcast podéis enviarnos un correo a programaresunamierda@gmail.com o dejarnos un comentario en Twitter: @progesunam .No olvidéis de suscribiros a nuestro podcast en ivoox o itunes, o si lo preferís agregad el RSS a vuestra app de podcast preferida. En cualquier caso siempre agradeceremos reviews del podcast en cualquiera de las plataformas.También podéis uniros a nuestro canal de Slack.La música elegida para la entrada y salida del podcast son del grupo "Dilo". En concreto las canciones son "War Inside" y "Sick of reality"
Para el episodio de hoy hemos pensado en hablar de las experiencias que nos han hecho aprender las mejores lecciones a lo largo de nuestra carrera. A veces sentarse a reflexionar acerca de lo que ha ido bien y lo que ha ido mal es indispensable para crecer como profesionales y como personas.El episodio se empieza a cocinar a partir de un artículo que nos dejan en el canal de Slack que está escrito por Rubén Fernández en su blog:http://charlascylon.com/2018-01-24-ojala-hubiese-tenido-un-mentor-la-charla-episodio-iDurante el episodio hablamos de un curso de Habilidades en comunicación impartido por Ferran Ramon-Cortés.Queremos agradecer a Gonzalo Nandez y Laura Santana su colaboración en el episodio.En la sección de recomendaciones hemos citado:TraefikNGrokEn la sección del rincón del oyente Jose Antonio Jimenez Toro nos dejaba estos enlaces a canales de telegram:Un Python Al Dia: https://t.me/UnPythonAlDiaAprende Python: https://t.me/aprendepythonTod@s l@s que tengáis comentarios o sugerencias para el podcast podéis enviarnos un correo a programaresunamierda@gmail.com o dejarnos un comentario en Twitter: @progesunam .No olvidéis de suscribiros a nuestro podcast en ivoox o itunes, o si lo preferís agregad el RSS a vuestra app de podcast preferida. En cualquier caso siempre agradeceremos reviews del podcast en cualquiera de las plataformas.También podéis uniros a nuestro canal de Slack.La música elegida para la entrada y salida del podcast son del grupo "Dilo". En concreto las canciones son "War Inside" y "Sick of reality"
API con Python usando HUG: En esta charla, Víctor nos enseñará a crear una API de una forma muy sencilla con Python y HUG Patrocinan: agiliacenter.com, empresa tecnológica enfocada en la ingeniería del software misfolletos.com, folletos y catálogos online
Agile, DevOps, QA, seguro que son términos que os suenan pero, ¿os habéis encontrado alguna vez en la situación de introducir estas prácticas en un ecosistema Big Data desplegado sobre la nube de Amazon Web Services?¿Cuál es la mejor fórmula para integrarlos? ¿Cómo escalar Scrum en equipos grandes?¿Cómo implementar DevOps?¿Qué problemas surgen y cómo solucionarlos? En el año 2012 BBVA nos plantea un reto, hacer uso de toda la información que tiene acerca de las transacciones que se producen en España, generando estadísticas con datos agregados y poder ofrecer información de interés a terceros vía API. Surge así un proyecto piloto en el que un equipo de formado por 3 personas desarrollan todo el sistema en el que se procesan del orden de 400 millones de transacciones El piloto tiene éxito, el proyecto comienza a crecer, el orden de magnitud de la información manejada asciende a 15 mil millones, aparecen nuevos consumidores, el equipo se multiplica por 4. Nos expandimos a varios países. Aparecen nuevos escenarios, la filosofía y metodología adoptadas ya no nos sirven, las exigencias han cambiado. El objetivo de la charla es contaros cómo hemos introduciendo prácticas y tecnologías para abordar los retos que se nos han ido presentando, desde dos puntos de vista, el de gestión de equipos y el técnico. Veremos cómo hemos añadido en una coctelera Java, Python, Jenkins, Rundeck, MongoDB, Puppet, Foreman, Elastic Map Reduce, S3, Redshift, DynamoDB, Cloudformation, Luigi y cómo utilizando metodologías ágiles y filosofía DevOps, hemos logrado crear un sistema capaz de procesar 15 mil millones de transacciones y utilizar 70 cluster de EMR en paralelo ejecutando 500 máquinas EC2, haciendo 60K escrituras por segundo en DynamoDB para su posterior consumo vía API y todo ello desencadenado únicamente por subir un fichero a S3 sin intervención humana y en cuestión de horas.