azure

Recursos de programación de azure
Siempre nos hablan de las bondades de la Cloud: serverless, rápidos despliegues, pagas por lo que usas, escalado desde cero,... ¿Pero es oro todo lo que reluce? En esta ponencia hablaremos de las bondades (y vergüenzas) de AWS, Azure y Google Cloud desde un punto de vista didáctico para todos los niveles.
In only a few years, the number of options available to run containers in the Cloud has literally exploded. Each provider now offers tens of “slightly different” services, each with its own minor trade-offs. Furthermore, running your applications in 2023 is definitely not like doing it in 2019: some of the new serverless options offer unique value propositions that shouldn’t be missed. It’s easy to get overwhelmed! This talk will categorize the various options available on AWS, Azure & GCP, focusing on what is state-of-the-art in 2023. We’ll look at Kubernetes and its evolution. Finally, we’ll explain the trade-offs between different categories from a technical and organizational standpoint. We’ll then do a deep dive with a demo on some of the new services that have been recently launched and that are quickly evolving to change the game: GCP Cloud Run, Azure Container Apps, and AWS Fargate.
Desde hace ya algunos años el concepto de computación multinube ha ido ganando terreno y cada vez son más empresas las que prefieren no casarse con un solo proveedor cloud, teniendo sus procesos en dos o más nubes públicas. Existen múltiples razones por las que las compañías están abrazando entornos multi-cloud. Las más grandes tienen cierto miedo a la alta disponibilidad. Por un lado, la volumetría de sus cargas de trabajo puede que ponga en riesgo la capacidad del proveedor cloud en una región específica, buscando desbordamientos a otro cloud. En otras ocasiones la criticidad de sus cargas hace que una empresa no quiera apostar todo a únicamente un proveedor cloud y enviar un cloud lock-n. Cada vez más, y especialmente en Europa, existen requisitos legales que, por ejemplo, obligan a que los datos no deben salir del país en el que operan. Otras veces, son las tensiones políticas las que pueden hacer que un cloud sea baneado en un país determinado teniendo que adecuar tus cargas a otro proveedor. Otros apuestan por entornos multi-cloud para sacar un mayor rendimiento económico. Optimizan, por ejemplo, su estrategia de datos o de infraestructura teniendo en cuenta donde les resulta más económico trabajar. Además se sienten relativamente protegidos frente a una subida de precios de un proveedor. Como te puedes imaginar, si tener una nube ya es complicado de operar para las empresas, la cosa se complica cuando en tu entorno de trabajo son varias con las que tienes que trabajar. Además, cada cloud tiene su propia idiosincrasia y sus detalles, que hacen que se requiera un conocimiento específico de cada nube para poderle sacar el mayor partido. Todo ese conocimiento es complicado de adquirir pero más aún de operar. Google Cloud lleva como estandarte el lema “open cloud”, no solo por la apuesta específica que Google siempre ha hecho en favor del mundo open-source sino también porque está poniendo especial énfasis en el enfoque multi-cloud y como interoperar las diferentes nubes. Esta apuesta tiene diferentes nombres según el servicio que utilices. Podemos hablar de BigQuery Omni si lo que buscamos es tener toda la capacidad de procesamiento de BigQuery utilizando datos distribuidos en diferentes nubes y on-prem. O bien de Google Anthos, el servicio que permite gestionar clústeres GKE independientemente de que estos corran en GCP, AWS, Azure u on-prem. En este episodio hablamos un poco más de cómo este último, Google Anthos, puede ejecutarse en tu infraestructura virtualizada existente, en servidores bare metal sin una capa de hipervisor o en otro cloud, simplificando el control de tu cargas independientes del lugar donde se ejecuten. Si quieres saber un poco más de nuestra visión multi-cloud no dudes en escuchar este episodio de la mano de Miguel Ángel Muñoz, un crack multi-nube ;) Participantes: Miguel Ángel Muñoz, Arquitecto Cloud en Paradigma. Óscar Ferrer y Tomás Calleja, miembros del equipo de Goodly. ¿Quieres escuchar nuestros podcasts? https://www.ivoox.com/podcast-apasionados-tecnologia_sq_f11031082_1.html ¿Quieres saber cuáles son los próximos eventos que organizamos?: https://www.paradigmadigital.com/eventos/
Uno de los principales beneficios que solemos escuchar sobre Terraform, es que tú sólo tienes que definir tu infraestructura 1 vez, y eso lo puedes desplegar en cualquier cloud (AWS, Google Cloud, Azure…). Es decir, que Terraform es agnóstico del proveedor, o "multi-cloud". En este vídeo veremos por qué eso realmente NO es así. Además, veremos cómo realmente se entiende el hecho de que Terraform sea agnóstico del proveedor: 1 gestor de infra para todos tus clouds. ﹤🍍﹥ Enlaces ricos ├ 🌍 Curso Terraform https://bit.ly/curso-terraform-codely └ 🐦 Twitter Adrian: https://twitter.com/adriancataland ﹤🍍﹥ CodelyTV ├ 🎥 Suscríbete: https://youtube.com/c/CodelyTV?sub_confirmation=1 ├ 🐦 Twitter CodelyTV: https://twitter.com/CodelyTV ├ 🫧 Twitter Javi: https://twitter.com/JavierCane ├ 📸 Instagram: https://instagram.com/CodelyTV ├ ℹ️ LinkedIn: https://linkedin.com/company/codelytv ├ 🥋 Academy: https://codely.com/academy └ 📕 Catálogo cursos: https://bit.ly/cursos-codely
De como un pequeño squad, montado para el desarrollo de una simple herramienta, que permite quitar dependencias con servicios externos y poder mockearlos, acabó siendo toda una estrategia de despliegue automático, con contendores, que asegura SLAs y que permite, a los equipos, tener más control sobre las herramientas que construye. Quiero explicar como evolucionamos una simple idea, que podia ser usada en cualquier situacion y entorno por que nos ayudaba a desprendernos de la limitación que nos imponía un servicio de un 3o hasta desarrollar CI/CD con Azure + AWS que ayuda a cumplir con unos SLOs Querría explicar las lecciones aprendidas como entender que mantener esos datos, como los SLOs, métricas de los entornos, resultados de los tests, y que poder mostrarlos, y poder mostrarlas de una manera amigable, para poder estudiarlas, compararlas es necesario, ya que culturalmente habíamos pasado de necesitar escribir soluciones que se despliegan en un sito X con un pipeline Z que realiza unos pasos a escribir esas soluciones y que tienen que rendir de manera optima en los distintos entornos que necesitemos llegar a desplegarlas, que un día pueden ser una maquina real y otro día un entorno virtual entregado por un vendor u otro. También como aprendimos, o nos enfrentamos a los problemas de comunicación habituales a los que, si les añades sistemas más complejos con múltiples componentes y con un mindset de los desarrolladores anticuado, te enfrentaba a un desarrollo más lento y difícil de visualizar. Que cada uno de los componentes del squad teníamos una visión y la solución del problema son muchas pequeñas partes, entonces tener una visión global y conjunta se hacia difícil. Yo fui el primero que no tuve una visión real hasta casi finalizar el squad. Quiero dar ejemplos de como fuimos desarrollando todo este concepto paso a paso y día a día y quizás de los fallos más relevantes qué tuvimos, como por ejemplo lo que cambiar las soluciones que dábamos que no se ajustaban a la nueva realidad o pensar que al acabar el squad ya no había nada más que hacer, cuando en realidad nos tocaba hacer de evangelizadores. ------------- ¡Conoce Autentia! -Twitter: https://goo.gl/MU5pUQ -Instagram: https://lk.autentia.com/instagram -LinkedIn: https://goo.gl/2On7Fj/ -Facebook: https://goo.gl/o8HrWX
De como un pequeño squad, montado para el desarrollo de una simple herramienta, que permite quitar dependencias con servicios externos y poder mockearlos, acabó siendo toda una estrategia de despliegue automático, con contendores, que asegura SLAs y que permite, a los equipos, tener más control sobre las herramientas que construye. Quiero explicar como evolucionamos una simple idea, que podia ser usada en cualquier situacion y entorno por que nos ayudaba a desprendernos de la limitación que nos imponía un servicio de un 3o hasta desarrollar CI/CD con Azure + AWS que ayuda a cumplir con unos SLOs Querría explicar las lecciones aprendidas como entender que mantener esos datos, como los SLOs, métricas de los entornos, resultados de los tests, y que poder mostrarlos, y poder mostrarlas de una manera amigable, para poder estudiarlas, compararlas es necesario, ya que culturalmente habíamos pasado de necesitar escribir soluciones que se despliegan en un sito X con un pipeline Z que realiza unos pasos a escribir esas soluciones y que tienen que rendir de manera optima en los distintos entornos que necesitemos llegar a desplegarlas, que un día pueden ser una maquina real y otro día un entorno virtual entregado por un vendor u otro. También como aprendimos, o nos enfrentamos a los problemas de comunicación habituales a los que, si les añades sistemas más complejos con múltiples componentes y con un mindset de los desarrolladores anticuado, te enfrentaba a un desarrollo más lento y difícil de visualizar. Que cada uno de los componentes del squad teníamos una visión y la solución del problema son muchas pequeñas partes, entonces tener una visión global y conjunta se hacia difícil. Yo fui el primero que no tuve una visión real hasta casi finalizar el squad. Quiero dar ejemplos de como fuimos desarrollando todo este concepto paso a paso y día a día y quizás de los fallos más relevantes qué tuvimos, como por ejemplo lo que cambiar las soluciones que dábamos que no se ajustaban a la nueva realidad o pensar que al acabar el squad ya no había nada más que hacer, cuando en realidad nos tocaba hacer de evangelizadores.
📝 You can read the full arcticle "Azure Elastic Jobs For SQL Databases | Daniel Agg", by Daniel Agg at: https://apiumhub.com/tech-blog-barcelona/azure-elastic-jobs-for-sql-databases/ Where you will be able to learn more about what’s an Elastic Job, Setting up the Elastic Job or creating a Logic App. -- https://twitter.com/Apium_hub https://www.linkedin.com/company/apium_hub/mycompany/ https://www.instagram.com/apiumhub/
MLOps se ha convertido en la palabra de moda cuando hablamos sobre ML pero, ¿en qué consiste este concepto y cómo podemos realmente utilizarlo en nuestras organización? En esta charla describiremos en qué consiste el concepto de MLOps desde la perspectiva de Azure Cloud y cómo funciona para poder construir nuestras canalizaciones de ML de manera semi-automática. ¿Quién es el ponente? Moisés Martínez. Investigador y desarrollador de soluciones relacionadas con datos e Inteligencia Artificial. Ayudo a las compañías a entender qué es la Inteligencia Artificial y cómo pueden utilizarla para mejorar y/o crear nuevas soluciones tecnológicas.
Carlos is Professor at Universidade do Porto Carlos Baquero is a Professor in the Department of Informatics Engineering within FEUP, and area coordinator at the High Assurance Laboratory (HASLab) within INESC TEC. From 1994 till mid-2021 he was affiliated with the Informatics Department, Universidade do Minho, where he concluded his PhD (2000) and Habilitation/Agregação (2018). He currently teaches courses in Operating Systems and in Large Scale Distributed Systems. Research interests cover data management in eventual consistent settings, distributed data aggregation and causality tracking. He worked in the development of data summary mechanisms such as Scalable Bloom Filters, causality tracking for dynamic settings with Interval Tree Clocks and Dotted Version Vectors and predictable eventual consistency with Conflict-Free Replicated Data Types. Most of this research has been applied in industry, namely in the Riak distributed database, Redis CRDBs, Akka distributed data and Microsoft Azure Cosmos DB. Nuno is Associate Professor at NOVA University Lisbon Nuno Preguiça is Associate Professor at NOVA University Lisbon and leads the Computer Systems group of the NOVA LINCS research lab. The broad aim of his research is to allow efficient and correct data sharing among geo-distributed users. He worked in the development of base mechanisms for distributed data management, such as Conflict-Free Replicated Data Types, Scalable Bloom Filters and Dotted Version Vectors, and on the design of resilient distributed systems, such as geo-replicated Antidote database and BFT Byzantium database. He has participated in a number of national and EU projects. He co-invented CRDTs and received a Google Research Award in 2009 for his work on solutions for cloud data management.
Dev Lead at Microsoft - Orleans Team Reuben is a distributed systems enthusiast and developer on the Orleans team in Azure PlayFab at Microsoft. He first joined Microsoft in 2011 on the Azure Active Directory team and launched the multi-dimensional metrics system used by internal Microsoft services. Shortly after leaving Microsoft, and returning to Australia, he became involved with Orleans as an external contributor and soon found himself back in Redmond helping to simplify distributed systems development for all developers.