spectrum

Recursos de programación de spectrum
Ponente: Victor Suarez Título: Pyxel: Los 8 bits Retro Pythoneros Aula: Teoría 8 (Domingo) ------------------------------------------------------------------ Resumen: Es hora de volver a ver esos grandes títulos de 8 bits que tanto nos han gustado; pero esta vez con un toque de Python. Pyxel esta aqui para poder crear nuestro juego de forma sencilla y con todas las herramientas integradas. ¡Todo con toque retro! En esta charla, vamos a conocer pyxel. Un pequeño motor que nos ayudara a crear videojuegos de estetica 8 bits con 16 colores de forma muy sencilla. Nos permite crear nuestros juegos y gestionar todos los recursos ya que trae herramientas como gestion de mapas, sprites, sonido,etc.. En esta charla veremos como crear un juego desde cero y como al final tendremos nuestro juego funcionando de forma muy sencilla. Y por supuesto totalmente retro. Si de pequeño disfrutabas de los juegos de NES, Spectrum y muchos mas del mundo de los 8 bits, esta es tu charla. Tanto para aquellos que comienzan como para los que ya tienen experiencia con herramientas como PICO-8, esta charla les ayudara a comprender y conocer Pyxel. Puedes conocer pyxel y ver ejemplos en su repositorio: https://github.com/kitao/pyxel Con pyxel, te sorprenderas lo fácil que es hacer un videojuego con todas las características de una máquina de 8 bits, y todo por supuesto con python.
En este capítulo de la serie tal y como os adelanté en el anterior capítulo , realizaremos un hands-on en directo de la aplicación (AirQuality App) que más votos tuvo en la encuesta que hemos publicado en LinkedIn. ¿Quién es el ponente? Javier Serrano. Me encanta la tecnología y la programación desde que tuve un ZX Spectrum+ en mis manos de pequeño. En los últimos años he estado trabajando con arquitecturas orientadas a microservicios, orientadas a eventos y definiendo sistemas Cloud Native. Defensor del desarrollo ágil, del software libre y de DevOps.
Sobre la infraestructura y aplicación que tenemos de los anteriores capítulos, vamos a poner a prueba la resiliencia mediante ingeniería del caos. Usaremos una de las herramientas más populares, Chaos Toolkit, donde definiremos experimentos para validar la capacidad de recuperación del sistema. https://chaostoolkit.org/ ¿Quieres ver capítulos anteriores? https://www.youtube.com/watch?v=mRYZYV8m_Lg&list=PL2yjEVbRSX7XZkBBfCob7D1SwIGJob1G7 ¿Quiénes son los ponentes? Alberto Grande. Soy Ingeniero Informático por la UPM, me encanta la tecnología y todo lo que la rodea. Estoy especialmente interesado en desarrollo , arquitecturas distribuidas y escalables y sistemas Cloud. Actualmente trabajo como Arquitecto Software, liderando el área de innovación. Román Martín. Arquitecto Cloud en Paradigma Digital. Desde pequeñito interesado en la informática, con más de 15 años de experiencia en el mundo de la administración de sistemas. La automatización se ha convertido en clave en mi día a día, siempre buscando nuevas herramientas que nos faciliten nuestro trabajo y nos ayuden a aportar más valor a nuestros clientes. Javier Serrano. Me encanta la tecnología y la programación desde que tuve un ZX Spectrum+ en mis manos de pequeño. En los últimos años he estado trabajando con arquitecturas orientadas a microservicios, orientadas a eventos y definiendo sistemas Cloud Native. Defensor del desarrollo ágil, del software libre y de DevOps.
As individuals, we use time series data in everyday life all the time; If you’re trying to improve your health, you may track how many steps you take daily, and relate that to your body weight or size over time to understand how well you’re doing. This is clearly a small-scale example, but on the other end of the spectrum, large-scale time series use cases abound in our current technological landscape. Be it tracking the price of a stock or cryptocurrency that changes every millisecond, performance and health metrics of a video streaming application, sensors for reading temperature, pressure and humidity, or the information generated from millions of IoT devices. Modern digital applications require collecting, storing, and analyzing time series data at extreme scale, and with performance that a relational database simply cannot provide. We have all seen very creative solutions built to work around this problem, but as throughput needs increase, scaling them becomes a major challenge. To get the job done, developers end up landing, transforming, and moving data around repeatedly, using multiple components pipelined together. Looking at these solutions really feels like looking at Rube Goldberg machines. It’s staggering to see how complex architectures become in order to satisfy the needs of these workloads. Most importantly, all of this is something that needed to be built, managed, and maintained, and it still doesn’t meet very high scale and performance needs. Many time series applications can generate enormous volumes of data. One common example here is video streaming. The act of delivering high quality video content is a very complex process. Understanding load latency, video frame drops, and user activity is something that needs to happen at massive scale and in real time. This process alone can generate several GBs of data every second, while easily running hundreds of thousands, sometimes over a million, queries per hour. A relational database certainly isn’t the right choice here. Which is exactly why we built Timestream at AWS. Timestream started out by decoupling data ingestion, storage, and query such that each can scale independently. The design keeps each sub-system simple, making it easier to achieve unwavering reliability, while also eliminating scaling bottlenecks, and reducing the chances of correlated system failures which becomes more important as the system grows. At the same time, in order to manage overall growth, the system is cell based – rather than scale the system as a whole, we segment the system into multiple smaller copies of itself so that these cells can be tested at full scale, and a system problem in one cell can’t affect activity in any of the other cells. In this session, I will introduce the problem of time-series, I will take a look at some architectures that have been used it the past to work around the problem, and I will then introduce Amazon Timestream, a purpose-built database to process and analyze time-series data at scale. In this session I will describe the time-series problem, discuss the architecture of Amazon Timestream, and demo how it can be used to ingest and process time-series data at scale as a fully managed service. I will also demo how it can be easily integrated with open source tools like Apache Flink or Grafana.
Continuamos la serie evolucionando la aplicación Cloud Friendly de capítulos anteriores para conseguir una aplicación Cloud Resilient. Revisaremos el diseño general de nuestra aplicación, realizaremos testeo de fallos proactivamente e incluiremos herramientas de monitorización y de métricas. Si quieres ver los capítulos anteriores: https://www.youtube.com/playlist?list=PL2yjEVbRSX7URtV8vy5gyxfTgz08yDz77 ¿Quién es el ponente? Javier Serrano. Me encanta la tecnología y la programación desde que tuve un ZX Spectrum+ en mis manos de pequeño. En los últimos años he estado trabajando con arquitecturas orientadas a microservicios, orientadas a eventos y definiendo sistemas Cloud Native. Defensor del desarrollo ágil, del software libre y de DevOps.
Continuamos la serie partiendo de la aplicación Cloud Friendly del segundo capítulo de la serie y la desplegaremos sobre AWS aplicando las mejores prácticas DevOps sobre dicha plataforma. Además, usaremos herramientas estándar y OpenSource como GitLab y Terraform, pero también emplearemos las herramientas propias de AWS. ¿Quién es el ponente? Javier Serrano. Me encanta la tecnología y la programación desde que tuve un ZX Spectrum+ en mis manos de pequeño. En los últimos años he estado trabajando con arquitecturas orientadas a microservicios, orientadas a eventos y definiendo sistemas Cloud Native. Defensor del desarrollo ágil, del software libre y de DevOps.
Continuamos la serie partiendo de la aplicación Cloud Friendly de capítulos anteriores sobre la que incluiremos una funcionalidad adicional pero construida en su totalidad en Serversless usando herramientas propias de AWS: dynamoDB, AWS Lambda, AWS API Gateway y Cognito. ¿Quiénes son los ponentes? Javier Serrano. Me encanta la tecnología y la programación desde que tuve un ZX Spectrum+ en mis manos de pequeño. En los últimos años he estado trabajando con arquitecturas orientadas a microservicios, orientadas a eventos y definiendo sistemas Cloud Native. Defensor del desarrollo ágil, del software libre y de DevOps. Noelia Martín. Ingeniero Superior en Telecomunicaciones. Inicié mi carrera programando servicios hasta llegar al mundo de las APIs. Actualmente trabajo en Paradigma en el departamento de Arquitectura dentro del área de API Management y gobierno intentando promover las buenas prácticas en diseño y desarrollo de las APIs.
Continuamos la serie "From 0 to Cloud" partiendo de la aplicación Cloud Friendly del segundo capítulo de la serie (https://www.youtube.com/watch?v=D5-jl9uI0x0&t=2s), la desplegaremos sobre Azure aplicando las mejores prácticas DevOps sobre dicha plataforma y usaremos herramientas estándar y OpenSource como GitLab y Terraform. Repositorio: https://github.com/paradigmadigital/from-0-to-cloud-azure Presentación: http://paradig.ma/from-0-to-cloud-azure ¿Quiénes son los ponentes? Javier Serrano. Me encanta la tecnología y la programación desde que tuve un ZX Spectrum+ en mis manos de pequeño. En los últimos años he estado trabajando con arquitecturas orientadas a microservicios, orientadas a eventos y definiendo sistemas Cloud Native. Defensor del desarrollo ágil, del software libre y de DevOps. Rubén Villar. Mente inquieta y curiosa que ha encontrado en la tecnología un filón inagotable de retos y aprendizaje. Actualmente, estoy inmerso en el desarrollo de arquitecturas ágiles y acompañando a las empresas en el despliegue de soluciones en la nube.
En la siguiente parte de este ciclo de webinars partiremos de un monolito desplegado on-premise en un servidor de aplicaciones que adaptaremos para que ejecute en Cloud, separaremos Front de Back, los dockerizaremos y los llevaremos a una plataforma que nos permita disponer de una aplicación Cloud Friendly que cumpla con lo que vimos en el primer capítulo de la serie. ¿Quiénes son los ponentes? Javier Serrano. Me encanta la tecnología y la programación desde que tuve un ZX Spectrum+ en mis manos de pequeño. En los últimos años he estado trabajando con arquitecturas orientadas a microservicios, orientadas a eventos y definiendo sistemas Cloud Native. Defensor del desarrollo ágil, del software libre y de DevOps. Carlos Tauroni. Entusiasta y especialista de tecnologías frontales. Me gusta investigar y probar herramientas que el desarrollo web pone hoy en día a nuestra disposición para sacarle el mejor partido a cada una de ellas.
En este webinar veremos cuáles son los pasos para cambiar una aplicación monolítica y basada en tecnología antigua hasta convertirla en una aplicación Cloud Ready. Además, evolucionaremos la arquitectura y actualizaremos la tecnología para conseguir una aplicación Cloud Native. Por último, aplicaremos diversas prácticas DevOps, sobre todo orientadas a la automatización. Todo desde un punto de vista agnóstico. ¿Quién es el ponente? Javier Serrano Me encanta la tecnología y la programación desde que tuve un ZX Spectrum+ en mis manos de pequeño. En los últimos años he estado trabajando con arquitecturas orientadas a microservicios, orientadas a eventos y definiendo sistemas Cloud Native. Defensor del desarrollo ágil, del software libre y de DevOps.