Vídeos de programación

Vídeos sobre programación y desarrollo de software.
Traditional vs Process Mining Process Mining has become a major enabler in successfully bringing operational excellence to business processes. The journey to implementing Process Mining will be similar but the outcome (insights and actions) will be unique to each company. Traditional approaches fail to understand the real-life complexity of processes and also struggle to provide complete insights given the vast amounts of data that are now available. By contrast, Process Mining offers a data-driven and more objective and holistic approach to understanding business processes. As a result, Process Mining has come to dominate a large majority of operational excellence, automation and digitalization ambitions within the industry. Basically Process Mining will reveal the truth of your data, because the data don’t lie Why Process Mining? Process Mining is the leading new technology when it comes to talking about algorithmic businesses - in other words, businesses that use algorithms and large amounts of real-time data to create business value. Global Process Mining Software Market is valued approximately at USD 322.02 Million in 2020 and is anticipated to grow more than 50.1% by 2027. How do we plan to save the world? At Celonis, we’ve been applying Process Mining for over a decade and in this session, I will share the principles, the main algorithms and our approach that have helped us to scale and evolve our platform to support hundreds of companies to optimize their processes and drive business success while helping to create a better and more sustainable world.
Hola, La segunda edición del Mes de QA ya está aquí y este año con más sesiones, más ponentes y muchos temas interesantes para aprender, pero siempre con una temática en común, QA. Para esta edición, comenzamos con la sesión de Manu de la Peña, ingeniero software en AtomicJar, en la que nos hablará de Testcontainers (y atentos que no será la única sesión sobre el tema). Con Manu veremos que las pruebas unitarias  son geniales, pero  sin unas adecuadas pruebas de integración, especialmente si dependes de  sistemas externos como bases de datos u otros servicios, puede que no  sepas cómo se comportará en realidad tu aplicación una vez la hayas  desplegado en producción. Antes de Docker, configurar el entorno de pruebas de integración era  un dolor: utilizando bases de datos en memoria o incluso fake, mockeando  servidores... Muchas veces sin contemplar la compatibilidad  cross-platform. Sin embargo, gracias a Docker, ahora podemos preparar  muy rápidamente el entorno para nuestras pruebas. En esta charla veremos cómo utilizar Testcontainers for Go  (https://golang.testcontainers.org) - uno de los más populares framework  de testing que, utilizando Docker, permite crear dependencias de test  de una manera fácil y consistente. Aprenderemos cómo usarlo para probar  aplicaciones legacy, pero también cómo utilizarlo para aumentar tu  productividad en el desarrollo mientras trabajas con tu aplicación. La agenda de la sesión será la siguiente: 19:00 - Bienvenida y Anuncios 19:10 - Integration Testing: The way to Go - Manuel de la Peña. 19:50 - Q & A 20:00 - Networking ¡Ah! La sesión se podrá seguir a través de YouTube (si no podréis asistir presencialmente y queréis online os podéis registrar para ver el enlace), pero si venís presencialmente (en las oficinas de Liferay - P.º de la Castellana, 280) , tendremos networking alrededor de las PIZZAS. Nos vemos el martes 30. Un saludo.
En esta sesion, de la mano de Ivan Garcia Sainz-Aja, descubriremos las capacidades de AsyncAPI y ZenWave SDK para documentar y generar codigo para las APIs de Arquitecturas Event-Driven Agenda: - Event-Driven vs Client-Server Architectures - Editing: YAML or DSL - Broker-Based APIs are Symmetric: - Provider - Client - Distributing and Versioning APIs with Maven - API-First Code Generation - Interfaces, Headers, DTOs - Enterprise Integration Patterns
El manifiesto agile nos dice que valoremos más los individuos y sus interacciones que los procesos y herramientas, pero eso no quiere decir que no le demos ningún valor. Al contrario, tenemos que conseguir que herramientas y procesos ayuden a las personas. Por ello, abrimos esta puerta para que nos preguntéis qué desafíos os encontráis con vuestras herramientas, empezando por una de las más utilizadas, que es Jira. Pondremos en juego toda nuestra inteligencia colectiva en la comunidad de agilistas de Paradigma para ayudaros en vuestro reto. Os compartimos el enlace a la presentación: https://docs.google.com/presentation/d/1H1GUQcmj1PuD5vnitBAbWrhRyAelAMyVgFekN_xORZY/edit #slide=id.g2d1fcccf89_0_1 ¿Quién es el ponente? Sergio del Mazo. Mi primer trabajo en serio como informático fue en un heldpesk y en mi cabeza ahora todo son incidencias que hay que resolver. Disfruto enfrentándome a esas pequeñas dificultades del día a día, intentando dar la mejor solución posible. Creo que Jira, si se usa bien, puede ser una palanca de cambio muy útil y potente.
Amazon Tech sacó un post comentando cómo se han movido de AWS Lambda a ECS y esto ha generado un gran revuelo diciendo que Amazon ya no utiliza microservicios. Hoy, vamos a explorar por qué eso es falso. ﹤🍍﹥ CodelyTV ├ 🎥 Suscríbete: https://youtube.com/c/CodelyTV?sub_confirmation=1 ├ 🐦 Twitter CodelyTV: https://twitter.com/CodelyTV ├ 🧔🏻‍♂️ Twitter Javi: https://twitter.com/JavierCane ├ 💂‍♀️ Twitter Rafa: https://twitter.com/rafaoe ├ 📸 Instagram: https://instagram.com/CodelyTV ├ ℹ️ LinkedIn: https://linkedin.com/company/codelytv ├ 🟦 Facebook: https://facebook.com/CodelyTV └ 📕 Catálogo cursos: https://bit.ly/cursos-codely
At first glance, ingress is an easy concept: you route traffic from the wider world into your cluster. As you layer on SSL and load balancing, the principles stay the same and everything works with minimal thought and effort. But as your infrastructure grows, your clusters grow, the interactions get more complex, and your security requirements explode. In this session, I’ll walk you through how we designed and built an Ingress Controller and have converted our clusters to use it in production to support millions of requests. It wasn’t easy but running it as an open source effort from the start encouraged our team and customers to review, explore, and consider situations outside our original plans. Image Disclaimer The T-Shirt worn by the speaker may harm the hearts of Malaga CF supporters.
In this talk, we’ll look at software architecture, team organization and the interplay between technology and humans. We’ll address some of the patterns and anti-patterns that can be observed when organizations try to evolve towards more decentralization and autonomy, and take a look at some strategies to ensure technology supports and enable the desired outcome. We’ll also mention data mesh as it’s 2023 and we have to.
En el episodio de hoy os queremos contar la visión que tenemos desde Paradigma sobre los equipos de alto rendimiento. Vamos a ver qué son, qué les caracteriza y por qué son fundamentales en cualquier compañía. Ponentes: Pablo Salvador, miembro del equipo de Agile en Paradigma Digital. Cristina Redondo, miembro del equipo de Agile en Paradigma Digital. ¿Quieres escuchar nuestros podcasts? https://www.ivoox.com/podcast-apasionados-tecnologia_sq_f11031082_1.html ¿Quieres saber cuáles son los próximos eventos que organizamos?: https://www.paradigmadigital.com/eventos/
El tratamiento de grandes cantidades de información, millones de filas, es un proceso complejo y costoso que puede ser diferencial en el éxito o fracaso de una empresa. Mi charla pretende presentar un caso real de cómo la extracción, transformación y carga de la información necesaria en el día a día de la empresa pasó a ser un cuello de botella y un problema para el crecimiento de la organización. Este proceso consumía horas y resultaba una limitación a la hora de crecer y abordar clientes más grandes. Ante este problema se inició un proceso de migración de enfoque, de ETL a ELT que trajo asociada también una migración técnica, dejando atrás Aurora y Ruby on rails para empezar a utilizar DBT y Snowflake. Tras el cambio de enfoque, los tiempos de tratamiento de los datos de los clientes dejaron de ser un problema para pasar a ser near real time. Se presentarían los problemas con los que nos encontramos y las razones por las que se decidió comenzar la migración, tecnologías que utilizábamos y casos reales de los problemas que nos encontrábamos. Hablaríamos de las tecnologías elegidas, razones y beneficios y una comparativa de ambos enfoques utilizando datos reales. Por último comentaríamos el mundo de posibilidades que se abre al realizar un procesamiento near real time y los beneficios que han supuesto en nuestro caso.