apache

Recursos de programación de apache
TL;DR A queue is a good choice when you have one kind of job to do that you can divide in independent smaller jobs that can execute in any order and a distributed log is a good choice when you have several kinds of jobs or functionalities for the same stream of data (logs, events, etc.).Queues vs Distributed LogsThis blog post tries to explain the typical use for Queues and for Distributed Log, but of course, a system usually uses these solutions in combination or in other ways. But I...
TL;DR A queue is a good choice when you have one kind of job to do that you can divide in independent smaller jobs that can execute in any order and a distributed log is a good choice when you have several kinds of jobs or functionalities for the same stream of data (logs, events, etc.).Queues vs Distributed LogsThis blog post tries to explain the typical use for Queues and for Distributed Log, but of course, a system usually uses these solutions in combination or in other ways. But I...
ScyllaDB is a NoSQL database compatible with Apache Cassandra, distinguishing itself by supporting millions of operations per second, per node, with predictably low latency, on similar hardware. Achieving such speed requires a great deal of diligent, deliberate mechanical sympathy: ScyllaDB employs a totally asynchronous, share-nothing programming model, relies on its own memory allocators, and meticulously schedules all its IO requests. In this talk we will go over the low-level details of all the techniques involved - from a log-structured memory allocator to an advanced cache design -, covering how they are implemented and how they fully utilize the hardware resources they target.
Stephan Ewen is PMC member of Apache Flink and co-founder and CTO of data Artisans. He believes that stream processing is the next step both for data analysis and for building end to end applications as continuous data flows. Before founding data Artisans, Stephan was leading the development that led to the creation of Apache Flink during his Ph.D. and worked on databases at IBM and Microsoft.
Stream processing has been traditionally associated with realtime analytics. Modern stream processors, like Apache Flink, however, go far beyond that and give us a new approach to build applications and services as a whole. This talk shows how to build applications on *data streams*, *state*, and *snaphots* (point-in-time views of application state) using Apache Flink. Rather than separating computation (application) and state (database), Flink manages the application logic and state as a tight pair and uses snapshots for consistent view onto the application and its state. With features like Flink's queryable state, the stream processor and database effectively become one. This application pattern has many interesting properties: Aside from having fewer moving parts, it supports very high event rates because of its tight integration between computation and state, and its simple concurrency and recovery model. At the same time, it exposes a powerful consistency model, allows for seamless forking/updating/rollback of online applications, generalizes across historic and real-time data, and easily incorporates event time semantics and handling of late data. Finally, it allows applications to be defined in an easy way via streaming SQL.
Camille is the former CTO of Rent the Runway, where she led the engineering team until late 2015. She is currently pursuing startup ideas, running seminars on engineering leadership, speaking, and writing. Her upcoming book, "The Manager's Path," will be published by O'Reilly in early 2017. She serves on the technical oversight committee for the Cloud Native Compute Foundation, on the board for the ACM Queue publication, and as a PMC member and committer for Apache ZooKeeper.
SESSION TYPE: Standard (45 min) SESSION LEVEL: Intermediate SESSION LANGUAGE: Spanish "Sobre el año 2012 se estableció un Battleplan para unificar esfuerzos y mejorar la funcionalidad de búsqueda en Drupal 8. La decisión final llevó al módulo Search Api como candidato idóneo y como consecuencia Search Api Solr en favor de Apache Solr Search. El objetivo de la charla es ver en la práctica cómo funciona Solr con Drupal y saber por dónde empezar a la hora de implementar ciertos requisitos de búsquedas no contemplados en la configuración por defecto. Daremos un repaso general desde el esquema de Solr hasta la configuración de la vista que muestra los resultados, pasando por la gran utilidad de los procesadores. Usaremos la interfaz de Solr para analizar los campos indexados y buscados averiguando qué indexa Solr cuando recibe un texto y cómo lo coteja con el texto buscado. Como ejemplo práctico le diremos a solr cómo indexar una cadena de texto existente en un campo de un nodo de Drupal y estableceremos los criterios que tiene que seguir para encontrarla cuando un usuario hace una búsqueda no necesariamente idéntica a la palabra o frase indexada. La charla parte desde una visión general de cómo funciona un buscador en Solr (para todos los públicos), cómo se implementa la funcionalidad mediante procesadores propios y creación de campos y tipos de campos en Solr (desarrolladores) y cómo se configura toda esta personalización desde la interfaz de Drupal (Site-builders)." Todos los videos de Drupalcamp 2017 https://www.youtube.com/playlist?list=PLKxa4AIfm4pVNaEYO5GKQaN5x_tveHpjO Descarga gratis la versión digital del libro de Roberto Canales “Conversaciones con CEOs y CIOs sobre Transformación Digital y Metodologías Ágiles ” https://goo.gl/i2zZtJ Facebook; https://goo.gl/o8HrWX Twitter; https://goo.gl/MU5pUQ LinkedIn https://goo.gl/2On7Fj/
SESSION TYPE: Lightning talk (10min) SESSION LEVEL: Intermediate SESSION LANGUAGE: Spanish "Cuando Tim Berners-Lee creó el World Wide Web en 1990 lo hizo pensando en una enorme biblioteca de documentos entrelazados. Por eso cuando diseñó su protocolo de comunicación (HyperText Transfer Protocol o HTTP) no se preocupó por la seguridad. Toda la información que HTTP envía es visible para cualquiera con mínimos conocimientos sobre redes. No fue hasta unos años después cuando Netscape desarrollo HTTPS, que añadía una capa de seguridad a HTTP. Toda la información se envía encriptada. Ya es posible hacer la compra semanal, gestionar las cuentas del banco o compartir las fotos de nuestras vacaciones con los amigos del instituto. Pero para que HTTPS funcione, debemos tener un certificado que garantice quien somos, solo así se puede crear una conexión segura. Y para garantizar que el certificado es cierto, los navegadores solo confían en los certificados creados por un número limitado de entidades. Estas entidades certificadoras siguen un costoso proceso para garantizar que somos quien decimos ser y cobran sus honorarios proporcionalmente. Así, para tener una conexión segura, lo que tenemos que hacer es gastar nuestro dinero en un certificado. Hasta que llegó Let’s encrypt. En la primavera de 2016 nació esta entidad certificadora avalada por una colección casi infinita de partners de casi todos los sectores de la industria. Rompe con la tradición en dos puntos: los certificados son gratuitos y el proceso para su creación automático. En Atenea tech hemos creado un certificado y lo hemos puesto a funcionar en un par de horas. Nos ha sorprendido tanto la sencillez del proceso que queremos compartirlo con vosotros. Nosotros tenemos un servidor virtual con Ubuntu y Apache. Si vuestro sistema es diferente el proceso debe ser muy parecido, solo debéis buscar en la página de Let’s encrypt." Todos los videos de Drupalcamp 2017 https://www.youtube.com/playlist?list=PLKxa4AIfm4pVNaEYO5GKQaN5x_tveHpjO Descarga gratis la versión digital del libro de Roberto Canales “Conversaciones con CEOs y CIOs sobre Transformación Digital y Metodologías Ágiles ” https://goo.gl/i2zZtJ Facebook; https://goo.gl/o8HrWX Twitter; https://goo.gl/MU5pUQ LinkedIn https://goo.gl/2On7Fj/
Watch Aljoscha Krettek at Big data Spain 2016: https://www.bigdataspain.org/2016/program/thu-apache-flink-iot-how-event-time-processing-enables-easy-accurate-analytics.htmll Aljoscha Krettek is a Software Engineer at Data Artisans Big Data Spain 2016 conference 17th-18th Nov. 2016 Kinépolis Madrid https://www.bigdataspain.org Event promoted by Paradigma Digital
Watch Ismaël Mejia's talk at Big Data Spain 2016: https://www.bigdataspain.org/2016/program/fri-unified-model-big-data-processing-introduction-apache-beam.html Ismaël Mejia is a Software Engineer at Talend Big Data Spain 2016 conference 17th-18th Nov. 2016 Kinépolis Madrid https://www.bigdataspain.org/ Event promoted by Paradigma Digital