Encuentros
>
>

Madrid Big Data Open School - Intensivo: Arquitectura y Virtualización de Hadoop

Monday 19 September 2016, 18:00 - 19:00

-, Madrid, España

Habíais pedido actividades en las que profundizásemos más en los aspectos técnicos de la administración y programación de Hadoop y hemos buscado algo suculento con lo que empezar: cómo montar un completo entorno de virtualización de Hadoop para aprender o ensayar escenarios. Hadoop es el entorno de almacenamiento y computación distribuida de mayor éxito en los últimos años, ideal para aplicaciones de Big Data, con inversiones mucho más asequibles que otras opciones comerciales. Esto ha generado un enorme interés en torno a las distribuciones más populares, como Cloudera o Hortonworks, y ha creado numerosas oportunidades laborales para nuevos perfiles relacionados con Big Data, como analistas, desarrolladores y administradores. El problema es que Hadoop no es un entorno precisamente simple de configurar. Para empezar ni siquiera es un programa de ordenador convencional, que se instala y ejecuta en una sola máquina, sino que se trata de un sistema cluster de computación distribuida. Es decir, de un conjunto de máquinas, que puede llegar a decenas de miles, que trabajan al unísono para machacar ingentes cantidades de datos y extraer información de negocio válida. Una opción para solventar esta circunstancia es la virtualización. Con suficiente memoria, procesador y espacio en disco, es posible crear un cluster Hadoop completo virtualizado. Las aplicaciones de este tipo de configuraciones abarcan tanto la formación continua de técnicos, analistas y programadores, como la puesta en marcha de programas piloto en la empresa, para probar la validez de una propuesta en Big Data. Los entornos virtualizados, como los enormes sistemas de computación en nube hospedados en clusters de VMWare, tienen la ventaja de que pueden crecer de una forma mucho más flexible y optimizada. Esta es la base de soluciones como Amazon Web Services (EC2) o Windows Azure. En este cursillo intensivo de 3 días, estudiaremos la arquitectura básica de un cluster Hadoop con la intención de comprender la relación entre sus componentes y aprender estrategias de virtualización. A lo largo de los tres días de curso, veremos cómo configurar un sistema a partir en una de las plataformas más populares, VirtualBox, con indicaciones para trasladar los pasos a VMWare. Veremos también cómo localizar y usar Virtual Appliances de las distribuciones más interesantes, para completar nuestro entorno de virtualización con máquinas pre-configuradas que complementarán nuestro trabajo y permitan ensayar escenarios de configuración y puesta en marcha de Hadoop. Requisitos En la parte de formación, no es necesario tener conocimientos previos de Hadoop o Big Data, aunque sí hace falta un nivel mínimo de administración de sistemas UNIX / LINUX. Toda la documentación de referencia que se facilitará está en inglés, excepto el material del centro, por lo que es necesario tener una capacidad suficiente para leer textos técnicos de informática relacionados con el tema del cursillo. En el apartado de hardware, cada asistente debe llevar su propio ordenador portátil. El objetivo es que, al terminar el curso, todos los asistentes se lleven un entorno de virtualización de Hadoop plenamente funcional, configurado por ellos mismos y perfectamente adecuado para continuar su formación. Las máquinas deben tener las siguientes características: • Procesador de cuatro núcleos • Mínimo de 8 GB de RAM • Sistema operativo Windows 7 o superior El primer día se facilitará todo el software necesario para la ejecución de las prácticas, por lo que no es necesario tener nada instalado previamente en el sistema.

Más información

Publicado por: Betabeers