Saltar al contenido

Los 5 mejores cursos especializados en Big Data

El mundo del Big Data es en este momento mi favorito. Siempre he sentido curiosidad por los datos, por conseguirlos, analizarlos, extraer información y tomar decisiones. Si te ocurre lo mismo quizás tengas una excelente oportunidad de formarte en este sector y conseguir oportunidades laborales en este mundo que está creciendo exponencialmente y lo va a seguir haciendo en los próximos años.

Es por ello que quiero compartir con vosotros un listado de 5 cursos recomendados para formarse y especializarse en el mundo del Big Data o análisis de datos.

Los 5 mejores cursos especializados en Big Data
Los 5 mejores cursos especializados en Big Data

Los cursos son los siguientes:

Big Data catalogue (Simplilearn)

Más que un curso en sí, la web de Simplilearn dispone de un gran número de cursos sobre temas muy relacionados con Big Data, como pueden ser Hadoop, SAS, Apache Spark, and R. Se pueden realizar cursos sueltos o también disponen de una opción, llamada Flexi-Pass, que permite realizar un número ilimitado de cursos durante el plazo de 180 días por una cuota fija.

CCA Spark and Hadoop Developer Certification (Coursera)

Se trata de una certificación de conocimientos con una gran reconocimiento en la industria. Se puede realizar tanto la preparación como la prueba oficinal para obtener la certificación.

Big Data University

Con el apoyo de IBM, Big Data University es una excelente sitio para realizar cursos gratuitos de nivel inicial e intermedio. Se pueden aprender algunos lenguajes como Scala o Spark.

Hortonworks

Aunque no se trata de certificaciones oficiales, en Hortonworks se pueden realizar diferentes certificaciones sobre Cloudera, con un gran reconocimiento en la industria de este sector.

Big Data Specialization (Coursera)

La especialización en Big Data de Coursera, ofrecida por la Universidad de California, San Diego, con la colaboración de Splunk, es uno de los mejores puntos de salida para todo profesional que quiera comenzar a especializarse en el mundo del Big Data.

Dado que acabé este proyecto hace un mes puedo hablar con total conocimiento del mismo. Al tratarse de un programa de unos 7 meses de duración, obviamente, no puedes salir siendo experto en ninguna tecnología, pero sí que es una buena toma de contacto con una docena de herramientas y aplicaciones relacionadas con este mundo, para que posteriormente cada uno pueda especializarse en las que sean de su interés.

La especialización es bastante práctica con numerosos casos experimentales reales que te aportan experiencia práctica. El proyecto final de la especialización es un proyecto de big data en toda regla que se realiza dentro de una empresa ficticia pero con datos y decisiones totalmente reales.

Aunque en el programa se indica que no son necesarios conocimientos previos, realmente sí que es necesaria una base de programación y manejo de bases de datos, ya que en caso contrario se hace completamente difícil poder superar algunos de los desafíos prácticos.

Me gustaría saber mas sobre el Big Data. Tiene algo que ver con la programación?
Big Data consiste en el análisis de grandes cantidades de datos. Por supuesto que hay que hacerlo en un lenguaje de programación o utilizando las nuevas aplicaciones que han ido surgiendo en los últimos años para esta tecnología.

Como lenguajes de programación orientados a Big Data recomiendo Python y R.

Respecto a aplicaciones específicas de Big Data podría recomendar Spark o Splunk.

En la Especialización en Big Data de la Universidad de California vas a comenzar a conocer todos estos sistemas y luego puedes seguir especializándote en los que más te gusten o veas más utiles.

Respecto a la parte de aplicaciones específicas de Big Data he encontrado un artículo publicado por la empresa española de Big Data, Paradigma «Paradigma desvela el mapa del quién es quién en Big Data«, en el que se detallan las aplicaciones recomendadas para cada uno de los procesos de Big Data:

1.  Ingesta (recolección de los datos): Flume o Sqoop.

2. Almacenamiento (guardar y gestionar grandes volúmenes de datos): Cassandra, Hadoop HDFS, MongoDB o Elastic.

3.  Gestión de recursos (planificación y asignación de los recursos de procesamiento): Yarn o Mesos.

4.  Motores de procesamiento (motores para realizar el cómputo de manera distribuida: Spark, Storm o Flink.

5.  Mensajería (intercambio de datos entre los diferentes componentes): RabbitMQ y Kafka.

6.  Bibliotecas de consulta  (orientadas a simplificar el acceso a los datos): Hive, Pig o Spark SQL.

7. Bibliotecas Machine Learning (algoritmos para clasificar, predecir o perfilar): Spark MLlib o FlinkML.

Gracias F.G, eh estado investigando y con tu comentario algunos aspectos han quedado mas que entendidos. Saludos, y sisi pedes publicar o comentar sobre conocimientos básicos que todos tendríamos que saber de economía, fuera muy bueno saber de ello ;)