MENU
Canal 26
Buscar Noticias
OSA Argentina
27.09.2023  por TOTALMEDIOS

El dilema de los datos: del Data Lake al Data Warehouse

En un mundo dominado por los datos, ¿cómo balancear entre pocos datos y estar inundado por ellos? Diego Lis, CTO de Seenka Media Data, analiza soluciones a este dilema, partiendo de un Data Lake y llegando a un Data Warehouse, listo para ofrecer información valiosa y oportuna.

Por Diego Lis, CTO de Seenka Media Data

En un mundo dominado por los datos, enfrentamos un desafío: ¿Cómo balancear entre tener pocos datos y estar inundado por ellos? ¿De qué sirve tener muchos datos si no se usan? ¿Cómo diferenciar la paja del trigo?
Kantar IBOPE Media
Orillando el problema

Digamos que quieres conocer la presencia de tu marca en los medios. Tal vez necesitas entender cómo impacta esta presencia en tus ventas, optimizar tu inversión o comparar tu estrategia con la de tu competencia. En cualquier caso, vas a necesitar datos.

Contactas algunas agencias y proveedores y compras un CSV con datos del último trimestre. Luego de algunas semanas de análisis, compruebas que en ese trimestre has perdido decenas de oportunidades. Tomas nota de algunos aprendizajes, pero sabes que esas oportunidades no volverán a aparecer. Comprendes que la información la necesitas en tiempo real.

En busca de más
Por suerte, hay un mundo enorme de datos ahí afuera, esperando ser capturados y analizados. Mediante el método de scraping, capturas noticias de portales, contenido de redes sociales, e incluso te aventuras en el mundo de las señales audiovisuales como YouTube, televisión y radio.

Luego de un año de trabajo, ya tienes funcionando todos los crawlers que trabajarán día y noche. Decides almacenar la información en una base de datos no relacional que permite escalar en volumen y tener flexibilidad en el esquema de datos como Elastic Search o MongoDB.

Además, utilizas un Bucket de Google Storage o S3 para guardar la información audiovisual de manera fiable y performante. Creas así un Data Lake, es decir, un repositorio centralizado de datos en bruto.

Al poco tiempo tu Data Lake tiene millones de datos esperando que los uses. Sin embargo, la información que proviene de los medios es completamente heterogénea. Contiene textos, imágenes, audios, videos, cortos y largos, bien y mal escritos, etc. Necesitas, en efecto, transformar estos datos para normalizarlos y poder consumirlos de manera más homogénea.

Dando sentido a tus datos

La normalización de un dataset es particularmente importante en el caso de los medios. ¿De qué me sirve obtener diariamente el texto de miles de noticias si no sé a quién se menciona y de qué temática se habla? ¿Para qué saber que se han emitido cierta cantidad de publicidades si no puedo identificar cuál es la marca, el mensaje central de la misma, su audiencia e impacto?

Afortunadamente, viene a tu rescate el Machine Learning. En los últimos años, viene creciendo de manera exponencial el interés por este campo en el ámbito académico y en la industria. En este gráfico, podemos ver la cantidad de papers de inteligencia artificial que se han publicado en el sitio arXiv en los últimos 30 años.

Decides entonces contratar un equipo especializado de ingenieros de machine learning. Luego de dos años de trabajo aplicando decenas de técnicas, logras convertir tus datos "no estructurados" en datos "estructurados". Es decir, le das sentido a tus datos.

Y así decides utilizar un motor de base de datos relacional, como PostgreSQL o MySQL, donde vas guardando la información estructurada, normalizada y homogénea, para facilitar su análisis posterior. Estás por cantar victoria cuando descubres algo inquietante: la cantidad de datos que has acumulado, que ya llega a los centenares de millones, es tan grande que resulta demasiado lento hacer cualquier consulta medianamente compleja.

La etapa final: El Data Warehouse

Por fin, logras implementar una última etapa en tu pipeline: utilizas un base de datos orientada a columnas, como BigQuery o ClickHouse, para crear un Data Warehouse, es decir, una base de datos optimizada para el análisis y generación de informes.

En esta nota:

Otras noticias del día

Empresarias

Ciberseguridad y observabilidad: Palo Alto Networks anuncia la adquisición de Chronosphere

Con la adquisición de Chronosphere, Palo Alto Networks refuerza su estrategia para unificar datos, seguridad y observabilidad en entornos modernos impulsados por inteligencia artificial. La integración permitirá detectar, investigar y resolver problemas de manera autónoma a escala de petabytes. Ver más

Campañas

Publicis Groupe impulsa una nueva campaña sobre prevención del cáncer

A tres años de su lanzamiento, la iniciativa de Publicis Groupe ya alcanzó a más de 35 millones de personas en 2.500 empresas. Este año, el programa suma una campaña que invita a dedicar tiempo libre a realizar estudios preventivos y fortalecer la cultura de cuidado integral. Ver más

Medios

Gustavo Silvestre se llevó el oro en los Martin Fierro del Cable 2025: uno por uno, todos los ganadores

La gala de APTRA distinguió lo mejor de la televisión paga, sus figuras más relevantes y los ciclos que se destacaron durante el año. Al final de la noche, el conductor de C5N obtuvo el máximo galardón. La conducción estuvo a cargo de Lizy Tagliani y Juan Di Natale.  Ver más

multimedia / campañas publicitarias

"Qué lindo es que sea fácil, qué lindo es poder"

Agencia: Nx lab Marca: Naranja x Soporte: Tv y web

La acción, desarrollada por NX Lab, el equipo creativo interno de la compañía, y dirigida por Milton Kremer, busca reforzar el posicionamiento de la marca como la fintech que simplifica la vida cotidiana de las personas.

"Un minuto de no silencio"

Agencia:Fundación vicki bernadet

Marca:Oglivy españa

Soporte:Tv y web

"Not para Fantasmear"

Agencia:Febrero made

Marca:Tvs motos argentina

Soporte:Tv y web

Tenemos todo lo que no todos tienen

Agencia:Humo rojo

Marca:Puerto madryn

Soporte:Radio, contenido digital

"Empresabios"

Agencia:Tombrasniña

Marca:Omint

Soporte:Tv y web

Ver todos