Los desafíos científicos y tecnológicos en la era de la información

¿Están las empresas chilenas preparadas para procesar los grandes volúmenes de datos que se generan día a día? ¿Están las universidades formando a los futuros profesionales que se dedicarán a generar valor mediante el análisis intensivo de los datos?

Publicado el 31 Dic 2016

col2

Roberto Muñoz.

Algunos economistas consideran que el desarrollo de un país depende principalmente del crecimiento económico y la calidad de vida de sus habitantes. Si nos detenemos a examinar cómo ha sido el crecimiento económico durante los últimos siglos, notaremos que la invención de la máquina a vapor y la electricidad fueron claves para generar un mayor crecimiento y ofrecer mejor calidad de vida a las personas. Los economistas llaman a estas invenciones Tecnologías de Utilidad General (GPT, por sus siglas en inglés) y se caracterizan por alterar drásticamente a las sociedades a través de su impacto en las estructuras económicas y sociales preexistentes.

Sin duda, la informática e Internet son las dos GPTs más importantes de nuestra época. A pesar de existir desde hace varias décadas, sus principales efectos en la sociedad y economía de los países comenzaron a ser visibles recién en la última década. No es casualidad que las empresas más valiosas del mundo sean Google, Apple y Microsoft, todas ellas asociadas al mundo de la informática y las Tecnologías de Información.

Google, hoy en día conocida como Alphabet, es una empresa que se dedica principalmente a ofrecer servicios de publicidad en la web, administración de datos en la nube y análisis de grandes volúmenes de datos. Los datos y la información se han transformado en el petróleo del siglo XXI. La sostenida disminución en el costo del cómputo, el exponencial crecimiento de los datos y el surgimiento de comunidades OpenSource, han generado un cambio de paradigma en el mundo del análisis de datos. Según un estudio publicado por Oracle acerca de la generación y uso de datos en el mundo, se estima que para el año 2020 generaremos 45 Zetabytes (45.000.000.000 Terabytes) de datos al año. International Data Corporation estima que Big Data y Business Analytics generarán ganancias de aproximadamente US$187.000 millones para el año 2019.

Figura 1: Diagrama de Venn para Data Science. Drew Conway (2010).
Un perfil interdisciplinario

En este contexto de crecimiento explosivo de la riqueza y tamaño de los datos ha surgido un campo interdisciplinario llamado Data Science. El Data Scientist o Científico de datos es un profesional que emplea técnicas y teorías de diversas disciplinas, tales como las matemáticas, estadística y ciencias de la computación, con el objetivo extraer información y conocimiento a partir de los datos. La figura 1 muestra el diagrama de Venn creado por Drew Conway para entender el carácter interdisciplinario del Data Science.

Las tareas más importantes que realiza un Data Scientist son recolectar y filtrar datos provenientes de diversas fuentes, explorar de manera efectiva el conjunto de datos, obtener información valiosa oculta en estos y construir modelos que permitan tomar decisiones informadas. En general, los Data Scientist suelen trabajar en emprendimientos y empresas dedicadas al análisis de datos y forman parte de equipos de trabajo compuestos por administradores de proyecto, analistas de Business Intelligence e ingenieros de datos. Los lenguajes de programación que más se repiten entre los Data Scientist son Python y R, ambos lenguajes modernos creados en la década de los 90’s y que actualmente reúnen a más de 30 millones de usuarios en el mundo. Las principales ventajas de estos lenguajes son que son gratuitos y que poseen una serie de librerías robustas para analizar y visualizar datos. El tiempo de desarrollo en estos lenguajes es mucho menor que otros lenguajes de nivel intermedio y los grandes de la industria del IT (Google, Microsoft y Amazon) han decidido soportarlos en sus servidores de alto rendimiento.

¿El desafío?

¿Están las empresas chilenas preparadas para procesar los grandes volúmenes de datos que se generan día a día? ¿Están las universidades formando a los futuros profesionales que se dedicarán a generar valor mediante el análisis intensivo de los datos? Lamentablemente, son pocas las empresas chilenas que realizan actividades vinculadas al desarrollo y la investigación de nuevas tecnologías, y menos aún son las empresas que tienen el capital humano necesario para analizar grandes volúmenes de datos. Por otro lado, las universidades chilenas siguen siendo estructuras rígidas que se adaptan lentamente al desarrollo económico del país y que desarrollan principalmente actividades de investigación fundamental (ciencia pura). La experiencia internacional apunta a que se deben generar espacios de colaboración entre empresas, gobierno e instituciones generadoras del conocimiento (modelo de triple he´lice de Etzkowitz y Leydesdorff, 1995). Algunos investigadores ya hemos abierto las puertas de nuestros laboratorios y estamos activamente colaborando con empresas, pues sabemos que el desarrollo económico y social del país se logrará trabajando de manera conjunta. Sin duda, Corfo y el futuro Ministerio de Ciencia y Tecnología jugarán un rol clave para seguir potenciando los espacios de colaboración.

¿Qué te ha parecido este artículo?

¡Síguenos en nuestras redes sociales!

Redacción

Artículos relacionados

Artículo 1 de 3