spectrum

Recursos de programación de spectrum
Ponente Nombre: Victor Suarez Título: Durango: Hablamos de hardware retro usando Python Sala: Tejita ———————— Muchos recordamos la revolución del home computer con ordenadores como el famoso comodore 64 o Spectrum. Pero... qué ocurre si usamos python en un ordenador de estas características. Presentaremos el proyecto Durango un ordenador de 8 bits con tecnología actual; ayudándonos con herramientas actuales pero basándonos en la tecnología de la época; y sobre todo veremos como hemos podido crear un pequeño intérprete de Python, que llamamos nanopython. Acércate a esta charla con sabor retro pero con un toque moderno. No te preocupes si quizás no eres experto ya que esta charla está pensada para que cualquiera pueda aportar a un proyecto libre y colaborativo. — Python España: https://es.python.org/ Python Canarias: https://pythoncanarias.es/ Twitter/X: @PyConES Mastodon: https://fosstodon.org/ @pycones
¡Bienvenidos a "Historia de Videojuegos"! En este programa, Juan Tomás García entrevista a su compañero Luis Ángel Alda, una leyenda del mundo de los videojuegos desde los años 80. En este episodio, Luis Ángel Alda nos habla sobre el desarrollo de hardware para las máquinas recreativas en 3D en los años 90. Ángel explica cómo surgió la necesidad de desarrollar una GPU para este tipo de máquinas, ya que en ese momento no existían tarjetas gráficas para recreativas. También aprenderemos que proceso tuvieron que seguir para diseñar un procesador gráfico que permitiera renderizar rápidamente polígonos en la pantalla, considerando la limitación de las recreativas. Publicaremos un nuevo episodio todos los jueves en el canal de Sngular, así que ¡Suscríbete para no perderte nada de "Historia de Videojuegos"! Mola mucho! Me gustaría algún día trabajar con vosotros!!! Pues no lo dejes: https://www.sngular.com/es/careers-home?utm_source=Historia +de+Videojuegos+%235&utm_medium=Youtube&utm_campaign=Historia+de+Videojuegos&utm_id=0006 #videojuegos #arcade #recreativas #historia #3d #vr #stageone #sngular #spectrum
¡Bienvenidos a "Historia de Videojuegos"! En este programa, Juan Tomás García entrevista a su compañero Luis Ángel Alda, una leyenda del mundo de los videojuegos desde los años 80. En este episodio, Luis Ángel Alda nos habla sobre su primer motor 3D. Ángel comenta cómo empezó a desarrollar el motor en 1991 después de hacer su tercer juego de Spectrum y darse cuenta de lo aburrido que era hacer gráficos en varias perspectivas. Decidió aprender sobre matrices y matemáticas para poder crear gráficos 3D y optimizar recursos. Publicaremos un nuevo episodio todos los jueves en el canal de Sngular, así que ¡Suscríbete para no perderte nada de "Historia de Videojuegos"! Mola mucho! Me gustaría algún día trabajar con vosotros!!! Pues no lo dejes: http://news.sngular.com/LNg050MYXTW #videojuegos #3d #vr #stageone #sngular #spectrum
Ponente: Victor Suarez Título: Pyxel: Los 8 bits Retro Pythoneros Aula: Teoría 8 (Domingo) ------------------------------------------------------------------ Resumen: Es hora de volver a ver esos grandes títulos de 8 bits que tanto nos han gustado; pero esta vez con un toque de Python. Pyxel esta aqui para poder crear nuestro juego de forma sencilla y con todas las herramientas integradas. ¡Todo con toque retro! En esta charla, vamos a conocer pyxel. Un pequeño motor que nos ayudara a crear videojuegos de estetica 8 bits con 16 colores de forma muy sencilla. Nos permite crear nuestros juegos y gestionar todos los recursos ya que trae herramientas como gestion de mapas, sprites, sonido,etc.. En esta charla veremos como crear un juego desde cero y como al final tendremos nuestro juego funcionando de forma muy sencilla. Y por supuesto totalmente retro. Si de pequeño disfrutabas de los juegos de NES, Spectrum y muchos mas del mundo de los 8 bits, esta es tu charla. Tanto para aquellos que comienzan como para los que ya tienen experiencia con herramientas como PICO-8, esta charla les ayudara a comprender y conocer Pyxel. Puedes conocer pyxel y ver ejemplos en su repositorio: https://github.com/kitao/pyxel Con pyxel, te sorprenderas lo fácil que es hacer un videojuego con todas las características de una máquina de 8 bits, y todo por supuesto con python.
En este capítulo de la serie tal y como os adelanté en el anterior capítulo , realizaremos un hands-on en directo de la aplicación (AirQuality App) que más votos tuvo en la encuesta que hemos publicado en LinkedIn. ¿Quién es el ponente? Javier Serrano. Me encanta la tecnología y la programación desde que tuve un ZX Spectrum+ en mis manos de pequeño. En los últimos años he estado trabajando con arquitecturas orientadas a microservicios, orientadas a eventos y definiendo sistemas Cloud Native. Defensor del desarrollo ágil, del software libre y de DevOps.
Sobre la infraestructura y aplicación que tenemos de los anteriores capítulos, vamos a poner a prueba la resiliencia mediante ingeniería del caos. Usaremos una de las herramientas más populares, Chaos Toolkit, donde definiremos experimentos para validar la capacidad de recuperación del sistema. https://chaostoolkit.org/ ¿Quieres ver capítulos anteriores? https://www.youtube.com/watch?v=mRYZYV8m_Lg&list=PL2yjEVbRSX7XZkBBfCob7D1SwIGJob1G7 ¿Quiénes son los ponentes? Alberto Grande. Soy Ingeniero Informático por la UPM, me encanta la tecnología y todo lo que la rodea. Estoy especialmente interesado en desarrollo , arquitecturas distribuidas y escalables y sistemas Cloud. Actualmente trabajo como Arquitecto Software, liderando el área de innovación. Román Martín. Arquitecto Cloud en Paradigma Digital. Desde pequeñito interesado en la informática, con más de 15 años de experiencia en el mundo de la administración de sistemas. La automatización se ha convertido en clave en mi día a día, siempre buscando nuevas herramientas que nos faciliten nuestro trabajo y nos ayuden a aportar más valor a nuestros clientes. Javier Serrano. Me encanta la tecnología y la programación desde que tuve un ZX Spectrum+ en mis manos de pequeño. En los últimos años he estado trabajando con arquitecturas orientadas a microservicios, orientadas a eventos y definiendo sistemas Cloud Native. Defensor del desarrollo ágil, del software libre y de DevOps.
As individuals, we use time series data in everyday life all the time; If you’re trying to improve your health, you may track how many steps you take daily, and relate that to your body weight or size over time to understand how well you’re doing. This is clearly a small-scale example, but on the other end of the spectrum, large-scale time series use cases abound in our current technological landscape. Be it tracking the price of a stock or cryptocurrency that changes every millisecond, performance and health metrics of a video streaming application, sensors for reading temperature, pressure and humidity, or the information generated from millions of IoT devices. Modern digital applications require collecting, storing, and analyzing time series data at extreme scale, and with performance that a relational database simply cannot provide. We have all seen very creative solutions built to work around this problem, but as throughput needs increase, scaling them becomes a major challenge. To get the job done, developers end up landing, transforming, and moving data around repeatedly, using multiple components pipelined together. Looking at these solutions really feels like looking at Rube Goldberg machines. It’s staggering to see how complex architectures become in order to satisfy the needs of these workloads. Most importantly, all of this is something that needed to be built, managed, and maintained, and it still doesn’t meet very high scale and performance needs. Many time series applications can generate enormous volumes of data. One common example here is video streaming. The act of delivering high quality video content is a very complex process. Understanding load latency, video frame drops, and user activity is something that needs to happen at massive scale and in real time. This process alone can generate several GBs of data every second, while easily running hundreds of thousands, sometimes over a million, queries per hour. A relational database certainly isn’t the right choice here. Which is exactly why we built Timestream at AWS. Timestream started out by decoupling data ingestion, storage, and query such that each can scale independently. The design keeps each sub-system simple, making it easier to achieve unwavering reliability, while also eliminating scaling bottlenecks, and reducing the chances of correlated system failures which becomes more important as the system grows. At the same time, in order to manage overall growth, the system is cell based – rather than scale the system as a whole, we segment the system into multiple smaller copies of itself so that these cells can be tested at full scale, and a system problem in one cell can’t affect activity in any of the other cells. In this session, I will introduce the problem of time-series, I will take a look at some architectures that have been used it the past to work around the problem, and I will then introduce Amazon Timestream, a purpose-built database to process and analyze time-series data at scale. In this session I will describe the time-series problem, discuss the architecture of Amazon Timestream, and demo how it can be used to ingest and process time-series data at scale as a fully managed service. I will also demo how it can be easily integrated with open source tools like Apache Flink or Grafana.
Continuamos la serie evolucionando la aplicación Cloud Friendly de capítulos anteriores para conseguir una aplicación Cloud Resilient. Revisaremos el diseño general de nuestra aplicación, realizaremos testeo de fallos proactivamente e incluiremos herramientas de monitorización y de métricas. Si quieres ver los capítulos anteriores: https://www.youtube.com/playlist?list=PL2yjEVbRSX7URtV8vy5gyxfTgz08yDz77 ¿Quién es el ponente? Javier Serrano. Me encanta la tecnología y la programación desde que tuve un ZX Spectrum+ en mis manos de pequeño. En los últimos años he estado trabajando con arquitecturas orientadas a microservicios, orientadas a eventos y definiendo sistemas Cloud Native. Defensor del desarrollo ágil, del software libre y de DevOps.
Continuamos la serie partiendo de la aplicación Cloud Friendly del segundo capítulo de la serie y la desplegaremos sobre AWS aplicando las mejores prácticas DevOps sobre dicha plataforma. Además, usaremos herramientas estándar y OpenSource como GitLab y Terraform, pero también emplearemos las herramientas propias de AWS. ¿Quién es el ponente? Javier Serrano. Me encanta la tecnología y la programación desde que tuve un ZX Spectrum+ en mis manos de pequeño. En los últimos años he estado trabajando con arquitecturas orientadas a microservicios, orientadas a eventos y definiendo sistemas Cloud Native. Defensor del desarrollo ágil, del software libre y de DevOps.
Continuamos la serie partiendo de la aplicación Cloud Friendly de capítulos anteriores sobre la que incluiremos una funcionalidad adicional pero construida en su totalidad en Serversless usando herramientas propias de AWS: dynamoDB, AWS Lambda, AWS API Gateway y Cognito. ¿Quiénes son los ponentes? Javier Serrano. Me encanta la tecnología y la programación desde que tuve un ZX Spectrum+ en mis manos de pequeño. En los últimos años he estado trabajando con arquitecturas orientadas a microservicios, orientadas a eventos y definiendo sistemas Cloud Native. Defensor del desarrollo ágil, del software libre y de DevOps. Noelia Martín. Ingeniero Superior en Telecomunicaciones. Inicié mi carrera programando servicios hasta llegar al mundo de las APIs. Actualmente trabajo en Paradigma en el departamento de Arquitectura dentro del área de API Management y gobierno intentando promover las buenas prácticas en diseño y desarrollo de las APIs.