top of page

#BIGDATA: LOS DATOS HABLAN SOLOS?

Actualizado: 13 dic 2019

Los datos son el petróleo de hoy? No, los datos son lo más parecido a la revolución de las energías renovables. Los datos son la base estructural de la economía digital. Desde un par de años hasta ahora nos vemos inundados de datos, ahí donde no estaban, ahí en las esquinas entre semáforos inteligentes, cámaras de vigilancia, vehículos autónomos, microceldas, dispositivos de nueva generación. Ahí ante nuestros ojos se presenta esta masividad de datos, pero éstos hablan solos?.


La BigData sin procesar no tiene valor. La innovación, la co-creación, nuevas soluciones para problemas complejos, obtener respuestas oportunas para las necesidades ciudadanas, son en parte el lugar donde el análisis de los datos debe colaborar. Para este procesamiento y análisis surge la “Ciencia de Datos” (Data Science) que establece una relación entre “computación, matemáticas, estadística, econometría e investigación de operaciones en una misma disciplina, para lo que resulta necesario realizar un proceso donde se exploran los datos disponibles, se formulan hipótesis, se recopilan datos, se limpian datos, se analiza la consistencia de los mismos, se elaboran modelos y algoritmos adecuados, se implementan esos algoritmos, se interpretan resultados y se toman decisiones planificando y asignando recursos”. Pero no queda una parte importante de las disciplinas afuera de esta disciplina?

Las nuevas aplicaciones y desarrollos tecnológicos han permitido convivir en una abundancia de grandes datos #BigData y convivimos con una nueva cultura de algoritmos. Ya algunos levantan la atención sobre la ‘dictadura de los algoritmos’ ¿Nos encaminamos hacia una dictadura de los algoritmos? La respuesta  de Jaume-Palasí “Un algoritmo sólo puede dictar a terceros lo que sus creadores le dictan. En última instancia el uso de algoritmos es el resultado de la tendencia humana al pragmatismo; son el lenguaje con el que se automatizan procesos a fin de alcanzar un mayor grado de eficacia, consistencia y precisión. Una dictadura de los algoritmos es una dictadura humana escondida detrás de un velo tecnológico”.


“Los códigos de ética en profesiones como la abogacía y la medicina deberían extenderse y adaptarse a todas las profesiones que diseñan, entrenan e implementan algoritmos: científicos del dato, desarrolladores, matemáticos, pero también managers y todo profesional que implemente procesos de automatización. A parte de ello necesitamos más expertos en filosofía, ética y ciencias sociales analizando el uso e interacción humana con dichas tecnologías” 


Volumen, velocidad, variedad de fuentes,variabilidad, complejidad. El nuevo Paradigma nos convoca al procesamiento de un gran volumen de datos, preferentemente cuantitativos y denominados “duros” que -se asume-  aportan objetividad a la toma de decisiones. Colocar estos datos sobre la mesa debería, supuestamente, conducir a análisis similares por parte de los distintos actores involucrados y en consecuencia a conclusiones compartidas. Sin embargo, ello no necesariamente ocurre y es más; Las lecturas de la realidad son personales y la “analítica objetiva” no siempre conduce a una idéntica conclusión.

La tradición antropológica ha sostenido por décadas que para la comprensión integral de la conducta humana, se precisa insistir en una aproximación multidimensional y compleja al análisis de la información acerca del fenómeno observado. De allí deviene el requerimiento indispensable de incorporar y considerar las interpretaciones que los sujetos hacen de los datos y –como es sabido- la interpretación tiene componentes subjetivos que son imposibles de eludir.  En otras palabras, los datos “no hablan” por si mismos. Se requiere tomar en cuenta las razones por las que la gente hace lo que hace, las emociones, sentimientos y puntos de vista de los distintos actores presentes en un contexto determinado.


Lo anterior exige profundizar en el “espesor” de los datos, observar las capas internas del comportamiento aparente, “interpretar la interpretación” que los actores de una realidad tienen de ella. Enfoques recientes destacan que las decisiones no son exclusivamente racionales y que el componente emocional juega un rol de gran importancia. En esta línea, resulta indispensable establecer una relación directa, cara a cara y empática con los actores, de manera de intersubjetivamente  construir el espacio de acción incorporando distintos puntos de vista  y comprendiendo su origen y motivación. A esta metodología se le llama “thick data”[1] y actualmente es utilizada por grandes corporaciones en USA, Reino Unido, Dinamarca entre otros países,. Está dirigida a observar el contexto vivencial de las personas y desde allí comprender sus percepciones. Esto que es valido para la gran industria y que ha sido utilizado por Samsung, Netflix, Nokia, Lego, entre otras empresas, también es valido en su aplicación al diseño y ejecución de política pública. El “thick data” no anula en modo alguno  los llamados “datos duros” pero es un complemento indispensable para comprender las motivaciones y referencias intimas en la toma de decisiones de los distintos actores, en la medida que asume que la realidad es compleja y no reducible a cuantificaciones, aunque estas sean de enorme importancia en un nivel macro de análisis. 



[1] Thick Data,  en los términos de Tricia Wang (2017) equivale a datos espesos, en lo que se estima es un guiño a la denominada Descripción Densa de Clifford Geertz (1980)

 
 
 

Entradas recientes

Ver todo

Comments


Publicar: Blog2_Post

©2019 por rodrigo ramirez pino. Creada con Wix.com

bottom of page