Vincent Mosco Big Data y Cultura de La Nube PDF
Vincent Mosco Big Data y Cultura de La Nube PDF
Vincent Mosco Big Data y Cultura de La Nube PDF
Este es un mundo en el que grandes cantidades de datos y las matemáticas reemplazan cualquier otra
herramienta. Con cada teoría del comportamiento humano, desde la lingüística a la sociología. Olvídese
de la taxonomía, la ontología y la psicología. Quien sabe por qué la gente hace lo que hace? El punto es
que lo hacen, podemos rastrearlo y medirlo con una fidelidad sin precedentes. Con suficientes datos, los
números hablan por sí mismos.
(Anderson 2008)
Hace mucho tiempo (y, por supuesto, en muchas partes de la sociedad actual), la gente tenía otro
nombre para los vertederos masivos de la información que se produjeron espontáneamente sin que se
hubiera hecho ninguna consulta. Lo llamaron Dios. Fue Dios, o los dioses, quienes hablaron del arbusto
ardiente para decir lo que ni siquiera conocías o necesitabas preguntar antes de Oracle, Inc., en otras
palabras, había Oráculos
(Alan Liu en Franklin 2012, 445)
La computación en nube acelera una manera poderosa e influyente de saber que es llamada
para abordar los problemas significativos que enfrenta el capitalismo global. En su brillantez
casi mágica en ciertas tareas, la nube ha seducido a muchos de sus proponentes para verla
como el principal, si no el único, medio de resolver problemas, empujando a los lados las
formas de conocer y ver el mundo que han guiado a la humanidad a través de los siglos. En su
forma extrema, y hay muchos ejemplos a los que citar, el modo de conocer avanzado por la
nube alcanzará una singularidad: como el único y legítimo medio de conocer. Todo lo demás
debe ser marginado, secuestrado en el mundo inferior, reservado para los gustos de la
astrología y el conjuro. Esto es un error por dos razones sustanciales. Primero, la vida es tan
masivamente compleja que ninguna forma de conocimiento, por deslumbrante que sea, puede
pretender ser el modo universal de conocer. En segundo lugar, debido a que la computación
en nube se ha desarrollado, casi por completo, bajo control privado, su forma particular de
conocer está limitada por el estrecho objetivo de la expansión comercial. Para decirlo sin
rodeos, la nube se dirige a la mayor parte del mundo como consumidores y sujetos, no como
ciudadanos activos, y esta tendencia tiene consecuencias significativas. Es más importante que
nunca resistir a las singularidades, expandir lo que significa conocer y hacer de la nube algo
más que un simple instrumento para construir y administrar mercados de productos, servicios,
trabajadores y consumidores. Para abordar estos puntos, necesitamos entender la particular
forma que tiene de saber la nube. ¿Cuáles son sus fortalezas y limitaciones? ¿Cuáles son las
alternativas y cómo están limitadas por la cultura de la nube?
Es útil comenzar examinando la relación entre la nube y lo que se llama "Big Data". Este último
se refiere al movimiento para analizar cantidades cada vez mayores de información
almacenada en múltiples ubicaciones, pero principalmente en línea y en la nube. No podemos
reducir uno a otro, la nube abarca más que solo Big Data. El análisis de Big Data (grandes
datos), a veces denominado analítica, es un servicio (ciertamente importante) proporcionado
por empresas de la nube. Además, el análisis de Big Data puede tener lugar por fuera del
entorno de la nube, ya que las empresas y las agencias gubernamentales usan a menudo los
datos almacenados en sus propios ordenadores. Sin embargo, dado que el almacenamiento de
material utilizado en la analítica está creciendo en tamaño y complejidad, transformándose en
una de las características de la computación en la nube, beneficiándose del tono promocional
que las empresas en ella hacen a sus clientes. Por ejemplo: Amazon Web Services (AWS) ha
crecido desde su éxito en el suministro a la campaña de Obama de un gran análisis de datos.
La mayoría de los expertos coinciden en que proporciono una ayuda significativa en la exitosa
campaña de 2012, y este éxito dio a AWS un gran impulso en una batalla con IBM para ganar
un contrato de $ 600 millones con la CIA. También ayudó a AWS a expandir su servicio al
consumidor para desafiar a Dropbox y Google (Barr 2013). La expansión de la computación en
la nube sólo avanza sobre el interés en la Big Data porque, como dijo un analista, la nube "ha
hecho viable realizar análisis sofisticados sobre enormes volúmenes de datos que ni siquiera se
podían pensar antes" (Wainewright, 2013). La nube no es la única que da impulso al Big Data.
La proliferación de dispositivos inteligentes ha provocado el crecimiento masivo de
información basado en la nube, incluyendo los datos de localización almacenados en los
teléfonos, los dispositivos instalados en hogares y lugares de trabajo que monitorean todo,
desde el consumo de energía hasta las actividades de familias y trabajadores, de los tweets, de
las redes sociales, las publicaciones y los mensajes. De hecho, uno puede concluir con
seguridad que la Big Data resulta de la conexión íntima que las empresas y los gobiernos
reconocen entre la computación en la nube y los dispositivos inteligentes.
Los proveedores de nube también han liderado el camino en la promoción del análisis de Big
Data, viéndolo como un medio para aumentar los ingresos. Algunas empresas simplemente
brindan Big Data mediante la introducción de programas de análisis a las aplicaciones que
proporcionan a sus clientes. Otras empresas van más allá al analizar directamente los datos
que se almacenan de los trabajadores y clientes para encontrar algún valor añadido. Una
empresa produjo una base de datos nacional sobre los empleados que han sido atrapados
robando, esta información la utilizan los minoristas para evitar una contratación futura
(Clifford y Silver-Greenberg 2013). Otra empresa utilizó los datos de consumo para desarrollar
un algoritmo predictivo para que los clientes sepan el potencial de descarga de archivos con
respecto a sus usuarios y sus al almacenamientos locales. Aún otros están tratando
“mercantilizar” los datos aprovechando archivos disponibles públicamente, como las
publicaciones de Twitter, para crear nuevos productos (Wainewright 2013). Este ha sido el
concepto central del proyecto Smarter Analytics de IBM, una combinación de software,
sistemas y estrategias que permiten a los clientes combinar sus propios datos empresariales
con los datos , no estructurados, de sus consumidores para identificar y anticipar mejor el
comportamiento del consumidor. IBM se refiere a esto último como "los datos del deseo",
porque registra expresiones populares de sentimiento y sensaciones, como likes/dislikes,
sobre productos y servicios. Esto da a sus clientes de la nube la capacidad de correlacionar los
registros de ventas con las publicaciones de medios sociales, vinculando así los datos de
comportamiento con la información sobre las sensaciones de los clientes, para proporcionar
una visión más profunda del sentimiento del cliente. IBM acredita este sistema al permitir a un
software (procesador) predecir cuáles serán los probables consumidores “defectuosos”
dentro de los noventa días y reducir la rotación de empleados en un 35 por ciento en el
primer año (IBM 2013). El potencial de la Big Data ofrece a las empresas tradicionales, como
IBM, oportunidades de reinvención. General Electric también aposto fuertemente por
transformarse en una empresa especializada en encontrar soluciones de Big Data en la nube
(Butler 2013b), líder en investigación sobre la incorporación de capacidades de inteligencia y
comunicación en objetos, o lo que se llama "Internet de las cosas" (IOT Internet Of Things).
También lo ha hecho Monsanto, una de las principales empresas químicas y de agronegocios
del mundo y principal productor de semillas genéticamente modificadas. En 2013, la compañía
gastó $ 930 millones para comprar una empresa de Silicon Valley que utiliza Big Data para
llevar a cabo el análisis del tiempo y el clima (McDuling 2013).
Por lo tanto, ahora es esencial observar la Big Data en una evaluación integral de la
computación en la nube, y especialmente, para evaluar su forma de conocer. La nube recibió
un impulso cuando el Instituto Nacional de Estándares y Tecnología proporcionó una definición
generalmente aceptada sobre ella, pero no ocurrió lo mismo con la Big Data. Entre las muchas
definiciones que circulan, la que provee Wikipedia es razonablemente buena: "En tecnología
de la información, los grandes datos (Big Data) son una colección de conjuntos de datos tan
grandes y complejos que se vuelven difíciles de procesar utilizando herramientas de gestión de
bases de datos o aplicaciones tradicionales de procesamiento de datos. " Los autores de un
libro de 2013 sobre el tema se refieren a esta como" la capacidad de la sociedad para
aprovechar la información de formas novedosas, para producir ideas útiles, o bienes y
servicios de valor significativo "(Mayer-Schönberger y Cukier 2013, 2).
Al igual que la nube, los grandes datos han generado a menudo una respuesta entusiasta de
sus partidarios, con uno de los relatos más sobrios el cual señala que "se ha convertido en el
rigeur (rigor en francés) de atribuir todo tipo de poderes sobrenaturales a la Big Data". (Asay
2013). Un investigador de Microsoft se preocupa por la aceptación acrítica del análisis de Big
Data por fuera de un amplio "fundamentalismo Big Data" (Hardy 2013i). Una fuente del
fundamentalismo es la creencia de que una vez que el trabajo fácil de recolección de datos se
haya completado estos hablan por sí mismos, produciendo nuggets de oro rentables de
información sobre negocios. Pero esto está lejos de ser este caso. El análisis es la parte difícil,
y es cada vez más, a medida que la cantidad de datos coleccionables se expande. No es de
extrañar que algunos expertos se preocupen de que las empresas están renunciando a los
grandes datos, lo que lleva a concluir que un "pequeño secreto sucio" de la industria es que
"nadie quiere utilizar los datos" (Elowitz 2013). Antes de examinar lo que podría llamarse
apropiadamente el “gran sublime de datos”, lo mejor es examinar brevemente lo que es este
alboroto.
Aunque en la aplicación, el análisis Big Data, puede ser un ejercicio muy desafiante, sus
fundamentos son mucho menos complicados de lo que uno podría esperar. Los analistas
toman conjuntos de datos cuantitativos y buscan correlaciones para encontrar relaciones que
produzcan percepciones, tal vez anticipadas, tal vez no, y usan estos hallazgos para hacer
predicciones. Consideremos los cuatro elementos importantes en esta descripción. En primer
lugar, los datos analizados son invariablemente cuantitativos, ya que las operaciones se aplican
a valores numéricos de objetos, eventos, resultados, ideas, opiniones, etc. Esto no significa que
los Big Data eviten información cualitativa, sino que los analistas representan estados
subjetivos con cantidades; Por ejemplo, asignando valores numéricos a gustos y disgustos o a
sentimientos de satisfacción o insatisfacción.
El análisis de Big Data también tiende a ser ateórico. De hecho, los principales defensores se
jactan de que libera a la gente de plantear hipótesis o teorías para ser probadas y permite que
los datos hablen por sí mismos (Anderson, 2008). No todos los partidarios de la Big Data
sostienen tan fuertemente este punto de vista. Sin embargo, la mayoría acepta que, dada
nuestra capacidad de medir y supervisar el comportamiento, desde los "likes" publicados en
Facebook hasta la velocidad que manejamos, la meta de la ciencia debería ser aplicar
matemáticas, procedimientos, tales como correlaciones, y dejar a las generalizaciones emerger
de los datos. El punto, como subrayan Mayer-Schönberger y Cukier, es que "ya no necesitamos
necesariamente una hipótesis sustantiva válida sobre un fenómeno para comenzar a
comprender nuestro mundo" (2013, 55). La mano guía de la teoría era necesaria en el pasado
porque no había suficientes datos para confiar sólo en ella para proporcionar respuestas. Un
mundo inundado de datos puede encontrar ahora, en la analogía a menudo utilizada por los
partidarios de bigdata, una aguja en un pajar (Singh 2013). Sustituir teorías e hipótesis son
áreas generales de interés y preguntas específicas que el investigador cree que el Big Data y la
nube podrían responder. Cualquier cosa más rigurosa descartaría prematuramente áreas
enteras donde se podrían encontrar soluciones.
El objetivo principal de la Big Data es ser predictivo. Encontrar patrones profundos en los datos
y esperar que, salvo cambios estructurales significativos, nos digan cómo será el futuro.
Determinar por qué es menos importante que predecir lo que será. Como concluye un
resumen de 2013, "estamos entrando en un mundo de predicciones constantes basadas en
datos, donde quizás no podamos explicar las razones detrás de nuestras decisiones" (Mayer-
Schönberger y Cukier, 2013, 17). Consideremos el ejemplo de Google, y sus búsquedas, con la
propagación de la gripe, una meta que ha eludido a los expertos de los Centros para el Control
de Enfermedades (CDC) que han pasado años tratando de realizar un seguimiento de la
enfermedad. Google es más como un imponente rascacielos, con tres mil millones de
búsquedas al día guardado en sus nubes. A partir de este vasto almacén de datos, Google
comparo 50 millones de los términos de búsqueda más comunes a la información de los CDC
(Centros para el Control y Prevención de Enfermedades) sobre la propagación de la gripe de
2003 a 2008 (Ginsberg et al., 2009). Los investigadores de la compañía buscaron la correlación
entre la frecuencia de ciertos términos de búsqueda y la propagación del virus a través del
tiempo y el espacio. Ellos encontraron que "debido a que la frecuencia relativa de
determinadas consultas está altamente correlacionado con el porcentaje de visitas al médico
en el que el paciente se presenta con síntomas similares a la gripe, se puede estimar con
precisión el nivel actual de actividad de la influenza semanalmente en cada región de los
Estados Unidos, con un retraso de informes de aproximadamente un día "(ibid.) Dado que el
plazo de presentación de informes ,más alto hasta este punto, fue de aproximadamente dos
semanas, los resultados de Google derivaron en la herramienta en línea Google Flu Trends. La
misma prometió proporcionar combatientes contra la gripe y un servicio al público en general,
con la mejor información sobre cómo predecir la propagación de la gripe. Por otra parte, esto
se puede realizar de forma discreta y económica. La Big data encontró la aguja (dentro del
pajar) en forma de términos claves de búsquedas y Google creía cautamente que su método
podría servir para refinar los preparativos mundiales y locales para el virus.
La Big Data ahora se utiliza ampliamente en todas las ciencias. En el área Genómica, se utiliza
para descifrar el genoma humano, y la astronomía, en la que se aplica a un mapa de los cielos.
De acuerdo con una evaluación de los beneficios para la investigación genética, "las mejoras
en la velocidad y la funcionalidad de recopilación de datos, herramientas de almacenamiento y
análisis han reducido el coste de la secuenciación de casi £ 2 mil millones a alrededor de £
2.000 hoy en día, y reducir el tiempo que tarda de más de en una semana a diez días. Si bien se
habrían producido más incrementos adicionales en cualquier caso, dichos avances importantes
han sido solo posibles por los servicios de computación en la nube que ofrece, entre otros,
Microsoft, Amazon y Teradata "(Burn-Murdoch 2012). El Sloan Digital Sky Survey ha utilizado
Big Data para analizar más información para la astronomía que la acumulada por la
investigación astronómica antes de que el proyecto se iniciara en el año 2000 (Mayer-
Schönberger y Cukier 2013, 7). Los físicos utilizan grandes volúmenes de datos para modelar el
comportamiento cuántico y climatólogos lo utilizan para producir modelos de clima
cambiante.
La Big Data se utiliza cada vez más para analizar, modelar, y pronosticar el comportamiento
humano (Boyd y Crawford 2012). Muchos de estos usos son familiares, aunque no a menudo
asociados con los grandes volúmenes de datos. Estos usos incluyen Google, Bing y otros
motores de búsqueda, que aplican algoritmos a bases de datos para entregar los resultados de
búsqueda. Las búsquedas de Facebook Graph llevan esto a un nuevo nivel, proporcionando
resultados de búsqueda adaptados a los registros de las elecciones subjetivas tales como
solicitudes de amistad y “likes". Al ver el valor de la Big Data en el uso en línea ordinario se
han sumado a las capacidades de cada usuario y, en el proceso, extendido al de las industrias,
las empresas, especialmente Google, que ha invertido en su desarrollo. Por ejemplo, Microsoft
fue pionero en el uso de grandes bases de datos para revisar la ortografía de los documentos
de su programa de procesamiento de texto, pero no iban tras la tecnología aún más alla, al
menos no tan lejos como Google, que utiliza la misma tecnología para desarrollar su búsqueda,
autocompletar, Gmail servicios y Google Docs. De hecho, las lecciones aprendidas de este uso
de Big Data ayudaron a convencer a Google para desarrollar un ordenador portátil
completamente basado en la nube, el Chromebook. Estas aplicaciones de Big Data se citan
típicamente en descripciones de casos de éxito, pero otras que reciben menos atención
pueden soportar un análisis critico-exhaustivo.
Del mismo modo que no hay nada especialmente nuevo acerca de las actividades de la NSA,
no hay nada particularmente novedoso en las advertencias sobre su abuso de poder. Después
de todo, en la década de 1970, poco después del escándalo de Watergate, el comité del
Senado advirtió sobre el peligro de que los organismos extranjeros acusados de espionaje,
incluyendo la NSA, representan para el pueblo estadounidense (Greenwald 2013). La eficacia
de las actividades de la NSA no siempre ha sido clara, en parte porque la agencia recogió
mucha más información de lo que era capaz de analizar. Para ello, la Big Data facilito lo que se
espera sea una solución mediante el reforzamiento de la capacidad de procesar los datos,
aplicar herramientas analíticas, y hacer predicciones. Para profundizar en su capacidad de
análisis, la NSA ha construido una estrecha relación con Silicon Valley, en la medida en que un
analista concluyó que "ahora están en el mismo negocio" (New York Times, 2013A). Otros
sostienen que las conexiones entre la NSA, Microsoft, Google, Apple, Facebook, y las
principales empresas de telecomunicaciones conforman el complejo de inteligencia de datos,
la versión contemporánea del complejo militar-industrial que el presidente Eisenhower
criticado cuando dejó el cargo en 1960 (Light 2013 ). Las agencias de inteligencia del
Pentágono y de Estados Unidos son cada vez más un campo de entrenamiento para la creación
de nuevas empresas. Un empleado de la NSA la abandonó para iniciar una empresa de
tecnología realmente exitosa. Este empleado alabó a la agencia por ponerlo "en la punta de
lanza, no sólo en la vanguardia de lo que es posible" (Sengupta 2013). Sin embargo, la relación
entre las empresas privadas y las agencias de inteligencia está lejos de ser armoniosa. El
escándalo que surgió de las revelaciones sobre el espionaje de la NSA y la participación de las
principales empresas de informática y de redes sociales dio lugar a temores que hablan del
deterioro de la confianza pública en el mundo en línea. En cuanto al resultado, en diciembre
de 2013 Apple, Yahoo!, Facebook, Twitter, AOL, y LinkedIn junto con Google y Microsoft,
presentan una carta abierta al presidente y al Congreso pidiendo una reforma y la regulación
de la vigilancia en línea de los organismos gubernamentales (Wyatt y Miller 2013)
En tercer lugar, tan desalentador como lo es para mantenerse al día con el crecimiento del
tráfico, la NSA se ha beneficiado de la expansión en la capacidad de procesamiento y análisis
de Big Data que permite a la Agencia utilizar realmente lo que recopila para analizar
inteligencia y pronosticar eventos. La agencia tiene ahora la capacidad de introducir un
nombre en su base de datos y automáticamente se lo rutea y registra todas las
comunicaciones electrónicas desde y hacia esa persona. Cuando la NSA lo considere necesario,
la agencia puede llevar a cabo un análisis detallado del contenido de la comunicación y lo
utilizaran para completar una evaluación del riesgo. Junto con la vigilancia de contenido, el
organismo utiliza los metadatos para mapear las redes sociales de los individuos para
determinar la trascendencia de las conexiones de red fuertes y débiles, así como los lazos que
pueden ser inferidos a través de redes de asociaciones entre diferentes personas. Dada la
expansión cuantitativa y cualitativa en sus capacidades, el ex empleado de la NSA, Walter
Binney, cree que la agencia ha pasado de recogida y análisis de datos sobre las nuevas
amenazas a la recopilación de todos los datos sobre los extranjeros y estadounidenses tanto
como la tecnología lo permita (Bamford 2012 ) Por otra parte, la capacidad predictiva de los
sistemas de Big Data, hace que sea aún más probable que la NSA y otras agencias vayan a
recoger muchos más datos de los que necesitan. Porque esa es la mejora de los códigos de
cifrado de datos de craqueo de mantener abierta la posibilidad de que, si la agencia no puede
descifrar y analizar los datos ahora, es probable que se capaz de hacerlo en el futuro.
La NSA está a la vanguardia de un programa que incluye también la CIA, el Defense Advanced
Research Projects Agency (DARPA), y otras organizaciones militares y de inteligencia que
ponen a trabajar a la Big Data, por ejemplo, en el controvertido uso de aviones no tripulados
en el campo de batalla (drones). Teniendo en cuenta la enorme cantidad de datos que deben
ser procesados para llevar a cabo este tipo de ataques exitosos, no es de extrañar que haya
retos importantes para aplicaciones exitosas. De hecho, algunos expertos cuestionan la
expansión de los programas fundados en drones, ya que requieren capacidades de
procesamiento que hoy exceden los límites de presupuestarios y tecnológicos (Beidel 2012).
Caminando hacia adelante, en 2012 el gobierno federal anunció un gasto de más de $ 200
millones de dólares en actualizaciones de Big Data militares y civiles para la investigación y el
desarrollo. Según el comunicado de prensa , que acompaña el anuncio de la "Iniciativa de Big
Data", el Departamento de Defensa (DOD) dijo que se "coloca una gran apuesta en Big Data"
con $ 60 millones en el nuevo gasto anual. El objetivo es "acelerar la innovación en Big Data"
que "mejorara el conocimiento de la situación para ayudar a los combatientes y analistas,
aportando un mayor apoyo a las operaciones. El Departamento está buscando un aumento de
100 veces en la capacidad de los analistas para extraer información de textos ,en cualquier
idioma, y un aumento similar en el número de objetos, actividades y eventos que un analista
puede observar "(Oficina de Ciencia y Tecnología política de 2012). Se espera que esta
financiación amplié significativamente el programa de drones militares de las fuerzas armadas
(Beidel 2012).
Junto con la iniciativa del Departamento de Defensa, DARPA anunció una inversión de $ 25
millones al año en su programa XDATA para superar las limitaciones actuales en el análisis de
Big Data. En concreto, se está centrando en el desarrollo de softwares y otras herramientas
computacionales, tales como la mejora de los algoritmos y visualizaciones (representaciones
visuales), para examinar los datos semiestructuradas y no estructuradas en documentos de
texto y el tráfico de mensajes. El anuncio no incluyó la NSA o la CIA, cuyos programas no se
publican en los anuncios de prensa y cuyo gasto se mantiene separado del Departamento de
Defensa Autorizaciones. Es difícil decir si la mala publicidad que la NSA ha atraído a raíz de las
revelaciones sobre el alcance de sus actividades de vigilancia, especialmente contra los
estadounidenses, amortiguará el compromiso del Gobierno de ampliar el uso militar de la
nube y la Big Data. Esto es poco probable. Mientras que los nombres de los programas
cambian (hoy es PRISM, mañana otra cosa), la NSA ha estado en el negocio de vigilancia
durante más de medio siglo y su trabajo es vital para las operaciones de espionaje de Estados
Unidos. Sin embargo, un replanteamiento es probable porque las revelaciones acerca de la
vigilancia electrónica en las oficinas de los aliados, particularmente en la Unión Europea y
América Latinam han causado suficiente ira al punto de dañar las relaciones y negociaciones
comerciales sensibles entre ellos (Castillo 2013) De hecho, algunos analistas se preguntan en
voz alta si las revelaciones sobre las actividades de la NSA neutralizarán en gran medida el
apoyo a la computación de la nube en todo el mundo (Linthicum 2013d). Uno piensa
estiradamente que las pérdidas en la industria de la nube en EE.UU. es entre $ 21,5 y $ 35
millones en los próximos tres años como consecuencia de los temores generados por la
vigilancia de la NSA (Taylor 2013A). Cisco, afirmó, que ya han perdido negocios en los
mercados emergentes debido a preocupaciones por el espionaje EE.UU. (Meyer 2013).
La Big Data se utiliza cada vez más en las ciencias sociales tradicionales y en las humanidades.
Investigaciones en ciencias sociales están ahora a menudo llevadas a cabo por las empresas
privadas, que ven oportunidades significativas en áreas tales como la detección en tiempo real
del fraude, las evaluaciones de los riesgos de salud para los pacientes médicos, monitoreo
continuo del proceso de la confianza del consumidor, y las “network relationships” en las
redes sociales (Davenport, Barth, y Bean 2012). Grandes data-sets están proporcionando
nuevas oportunidades para la investigación y sus consecuentes prácticas. Por ejemplo, la
agencia de las Naciones Unidas apoya una gran investigación sobre cómo las organizaciones
responden a las crisis humanitarias. Los datos incluyen el contenido de los social-media con el
objetivo de crear recomendaciones sobre lo que funciona mejor (Burn-Murdoch 2012). Del
mismo modo, en Sierra Leona, la compañía de mapping ESRI provee un software y un portal de
la nube que revela dónde se necesitan centros de salud (A. Schwarz 2013). Científicos en datos
trabajan con la organización DataKind, con sede en Londres, asesorando a organizaciones
benéficas con consejos sobre cómo hacer frente a los problemas del sector sin fines de lucro.
Por otra parte, los investigadores asociados con el Hospital de Toronto para Niños Enfermos
han utilizado grandes data-sets para desarrollar algoritmos que se anticipan a las infecciones
en los bebés prematuros. A pesar de estos beneficios, estos tipos similares de algoritmos
pueden ser utilizados por las compañías de seguros al negar cobertura o por empresas de
medios sociales para manipular resultados en base a "tendencias/trends" , no son más que
unas pocas preocupaciones acerca de cuestiones éticas y políticas (Burn-Murdoch 2012;
Gillespie 2013). Esto ha llevado a algunos científicos a promover el código de buena conducta,
"Hacer el bien con Analytics", que se compromete a evaluar el valor ético de la investigación,
antes de que el proceso comience y usarlo para lograr un cambio social positivo (D. Ross 2012)
También se han generado pedidos para democratizar la ciencia de los datos (código abierto-
datos abiertos-open cloud), haciendo del nuevo campo algo más abierto y accesible a los
ciudadanos (Harris 2013b).
Desde que las empresas privadas controlan la mayor parte de la investigación a partir de Big
Data, se han planteado preocupaciones sobre el acceso a los datos debido a que las empresas
son reacias a seguir los protocolos tradicionales de las ciencias sociales para la liberación de las
evidencias expuestas en documentos académicos. El asunto llegó a un punto de inflexión en
2012, cuando unos investigadores junto con Google y la Universidad de Cambridge se negaron
a poner a disposición una serie de datos de un paper sobre la popularidad de YouTube en
varios países. El presidente de la conferencia, un físico que dirige el grupo de investigación en
ciencias sociales en HP, respondió con rabia y recomendó que la conferencia no debería
aceptar las solicitudes de los investigadores que, tanto por cuestiones comerciales, de
seguridad, o cualquier otra razón, se niegan a compartir sus datos. Esto siguió con una carta a
la revista científica de prestigio “Nature” declarando que el análisis de Big Data, que se suponía
iba a ampliar los horizontes de investigación, es en realidad el estrechamiento de ellos. Esto se
debe a que las empresas privadas propietarias de los datos se niegan a liberarlos (Markoff
2012). Por otro lado, un número creciente de académicos críticos de las ciencias sociales están
desarrollando herramientas para utilizar softwares comerciales y los datos generados por los
socia-medial para avanzar en visiones alternativas de la sociedad (Beer 2012)
La Big Data también se utiliza cada vez más en las humanidades, sacudiendo métodos de
investigación tradicionales y agitando un debate considerable (Hunter 2011). En los Estados
Unidos, el empuje para utilizar la Big Data en las artes liberales está dirigido por la Fundación
Nacional del Gobierno Federal para las Humanidades (NEH). Uno de los mayores financiadores
de la investigación de artes liberales en los Estados Unidos, NEH es una agencia federal
fundada en 1965. Con un presupuesto anual de alrededor de $ 170 millones, las agencias
brinda subvenciones a instituciones culturales como bibliotecas, universidades, museos,
organismos públicos de radiodifusión, individual y académicos con el fin de fortalecer la
enseñanza, la investigación y la base institucional de las humanidades, incluyendo la
ampliación del acceso a los recursos educativos y culturales. NEH creó la Iniciativa de
Humanidades Digitales en 2006, y se eleva al nivel de una Oficina de Humanidades Digitales
(ODH) en 2008, un movimiento que ayudó a legitimar el uso del término: Humanidades
Digitales en los Estados Unidos. Con el apoyo de ODH, los académicos que trabajan en el
campo han hecho sentir su presencia en la reunión anual de 2009 de la Asociación de Lenguas
Modernas, lo que muchos consideran el punto de inflexión en el campo. Los Humanistas
digitales aplicaron la informática para las humanidades, principalmente mediante el examen
de Big Data para llevar a cabo investigaciones que eran dificiles, si no imposible, para
completar ,lo que antes de los métodos computacionales, estaban a disposición de los
estudiosos que trabajan en los campos de las humanidades como la literatura, la historia, la
filosofía y métodos computacionales.
Algunas de las investigaciones, tales como el proyecto de “Visual Page” financiado por la ODH,
consiste en encontrar nuevas formas de data-sets y analizarlos: "Todos los textos impresos
transmiten significado a través de ambos signos lingüísticos y gráficos, pero las herramientas
existentes para el análisis de textos se centran sólo en el contenido lingüístico. “Visual Page”
desarrollará un prototipo de aplicación para identificar y analizar las características visuales de
los libros digitalizados de la poesía victoriana, como espacio de margen, las sangrías de líneas,
y los atributos de tipo de letra "(EE.UU. Fundación Nacional para las Humanidades 2013). Otros
proyectos se aplican directamente a los métodos computacionales para analizar Bug Data; Uno
de ellos es un proyecto ODHfunded en los ciclos vitales de las obras publicadas: "que incluye
no sólo la literatura académica y científica, sino también redes sociales, blogs, y otros
materiales." El objetivo es "identificar qué actividades académicas son indicativas de áreas
emergentes e identificar conjuntos de datos que ya no debe ser marginados, pero integrarlos
en la comprensión y la medición del área" (ibid.) Otro de los proyectos financiados demuestra
por qué el programa de subvenciones se llama "la excavación en los datos": porque este
observa "nuevas formas de explorar el contenido del texto completo en los registros históricos
digitales. . . el uso de las cartas medievales que sobreviven en abundancia desde el siglo 12
hasta el 16 y son una de las fuentes más ricas para el estudio de la vida de la gente en el
pasado. Las nuevas herramientas ,como ChartEx, permitirán a los usuarios a cavar realmente
en el contenido de estos títulos, para recuperar sus ricas descripciones de lugares y personas, e
ir mucho más allá de los catálogos digitales actuales que restringen las búsquedas a algunos
hechos claves sobre cada documento (el "metadato ') "(Excavando en Data Challenge 2011)
El programa ODH ha logrado dar las humanidades el impulso significativo en la investigación
cuantitativa que se aprovecha de los sistemas informáticos en la nube para examinar grandes
datas-sets. ODH también ha atraído la atención y el apoyo internacional. En 2009 y 2011 el
concurso "La Excavación en datos" recibio 150 propuestas de los equipos de investigación y
financio 22 de los Estados Unidos, Reino Unido, Canadá y los Países Bajos. Para 2013, el apoyo
y patrocino se expandió a través de nuevos consejos de investigación y autoridades
gubernamentales de financiación, dando al programa diez patrocinadores. Esto es significativo
porque el apoyo del gobierno para las humanidades, incluyendo la investigación, la
enseñanza, y el archivo, ha disminuido a niveles peligrosos en la mayoría de las sociedades
occidentales, dejando a la investigación basada en la nube y el big-data en una de las pocas
áreas en las que la financiación está en aumento (Delany 2013) Por otra parte, los consejos de
investigación del gobierno que han visto sus presupuestos recortados, dedican lo poco que
queda a financiar la investigación informática en las humanidades. Los defensores de las
humanidades digitales apoyan este cambio porque creen que está provocando la
transformación revolucionaria en todas las facetas de la educación y la investigación humana.
Como exclamo el líder de la NEH exclamó: "Una revolución ha comenzado en donde la ciencia
y la tecnología están fusionándose con las ciencias humanidades" (Leach, 2011).
No todo el mundo, en las humanidades, lo ve de esta manera, incluyendo Stanley Fish, uno de
los más distinguidos especialistas en literatura y estudios culturales de nuestro tiempo. Para
Fish, la mayoría de los partidarios de las humanidades digitales avanzan en vista de lo que él
considera como "teológica", ya que promete la liberación de las constricciones de un medio
que es a la vez lineal y de duración determinada, que sólo puede producir conocimiento que
es discreto, parcial y situado (es decir, de aquí y ahora, de este autor, y por esta audiencia).
Para sus partidarios, las humanidades digitales utilizan la nube y los métodos computacionales
para proporcionar un universo en el que el conocimiento esté totalmente disponible en todas
partes y a todos. A través de ella, todos nos convertimos en los nodos de una red de
producción de significado para un sistema que elimina las barreras espaciales y temporales
entre la persona que busca el conocimiento y el objeto de la cognición. Fish, sostiene que este
es un estado en el que la mayoría de las religiones se identifican con la vida después de la
muerte, con el más allá, cuando la gente rechaza los grilletes de la mortalidad y todas sus
limitaciones para convertirse en uno con el creador, la fuente de todo conocimiento. Admitió
que nadie en el campo habla precisamente de este modo, pero dice que pueden podrían
hacerlo también porque: para los humanistas digitales, su misión afirma un futuro en
“colaboración sin fronteras en la que se eliminarán todas las debilidades de la linealidad” (Fish
2012a). Él cita a Fitzpatrick (2011), cuyo libro de “Planificación de la obsolescencia” , describe
las limitaciones de los medios tradicionales y las relaciones sociales que surgieron con ellos.
Sosteniendo, además, que en el mundo de los nuevos medios "tenemos que pensar menos en
productos terminados y más sobre el textos en proceso; menos acerca de la autoría individual
y más acerca de la colaboración; menos acerca de la originalidad y más sobre el remix; menos
sobre la propiedad, la información y más sobre cómo compartir "(p. 83).
No hay nada nuevo en los principios detrás de la analítica de Big Data. Durante muchos años,
los científicos sociales han estado trabajando en grandes data sets para encontrar relaciones
entre variables, aparentemente no relacionadas. Pero la diferencia, ahora, es el esfuerzo
concertado para convertirla en el instrumento más importante en la investigación y, para
algunos, la alternativa mágica para los métodos que han guiado la investigación en la ciencia,
así como las humanidades durante siglos. La Big Data no es sólo un método; es un mito, una
historia sublime sobre la evocación de la sabiduría. No se trata de la inteligencia defectuosa de
los seres humanos, con todas nuestras limitaciones conocidas, sino también a partir de los
datos almacenados en la nube.
Proclamando "La teoría del fin," Chris Anderson dio el puntapié inicial en 2008 en la revista
Wired en un artículo en el que plantea que "el diluvio de datos hace que el método científico
quede obsoleto" (Anderson 2008) Para Anderson, la Big Data no significan nada menos que
una revolución en lo que significa conocer. Este punto de vista es mítico debido a que prevé a
la Big Data como un desarrollo revolucionario que no sólo hace mejor a la ciencia, sino que
termina con la ciencia tal como la conocemos, sustituyéndola por nuevas formas de saber. Al
igual que muchos mitos, el de Anderson, representa un nuevo mundo en el que lo que se
aceptó universalmente ayer es rechazada hoy y descartado en favor de una alternativa simple
que resuelve los problemas del mundo. Uno queda afuera con el método científico, pero está
dentro con las correlaciones de Big Data. Siguiendo un ejemplo como el de Google, que está
revolucionando la publicidad, Anderson proclamó: "El gran objetivo aquí no es publicidad, sin
embargo, es ciencia. O, más precisamente, es el núcleo de la ciencia encarnada en una
aproximación al conocimiento” "El método científico está construido alrededor de hipótesis
comprobables. Estos modelos, mayoritariamente, son sistemas visualizados en las mentes de
los científicos. Los modelos son probados, y los experimentos confirman, o falsifican, los
modelos teóricos de cómo funciona el mundo. Esta es la forma en que la ciencia ha trabajado
durante cientos de años” "Ya no se tiene que trabajar de esta manera, pero los científicos
tienen que renunciar a sus ideas más queridas.” "Los científicos están entrenados para
reconocer que la correlación no es causalidad, y que no conviene sacar las conclusiones
simplemente sobre la base de la correlación entre X e Y (que podría ser sólo una coincidencia).
En su lugar, usted debe entender los mecanismos subyacentes que conectan los dos. Una vez
que tenga un modelo, se pueden conectar los data-sets con confianza. Los datos sin un modelo
son sólo ruido. Pero frente a los datos masivos, este acercamiento a la ciencia (hipótesis,
modelo, prueba) se está volviendo obsoleto "(ibid.)
En su núcleo, los mitos nos ayudan a hacer frente a las incertidumbres de la vida, desde
pequeñas banalidades (como que voy a desayunar) a las grandes cuestiones, tales cómo
encontrar el significado de la vida y la conocer la cara de la muerte. Ellos no sólo ofrecen una
respuesta; ellos proporcionan la respuesta típicamente con claridad de forma convincente,
sencillez y fervor. La Big Data no es sólo uno de los muchos instrumentos para comprender y
cambiar el mundo; sino que es el esencial, y todos los demás, incluyendo la ciencia, son
métodos que han guiado el mundo moderno y su forma de saber, que pueden ser arrastrados
al tacho de basura de la historia. Algunos entienden esto muy bien. La gente como Chris
Anderson y Ray Kurzweil son visionarios de hoy en día, que conocen la forma en que se corre
el velo de una edad antigua y se prefigura todo lo nuevo. La mayoría de los mitos son sobre
finales, el fin de la historia, de la teoría o de la ciencia. Nos llaman para celebrar nuestra buena
fortuna de vivir en el final de una época y para comenzar a experimentar la nueva. Para
Anderson, un visionario de actual de esto es Google. Esto se debe a que no es sólo una
empresa de éxito, una de las fuerzas principales en el capitalismo informacional, sino
principalmente porque está utilizando las correlaciones que encuentra en las montañas de Big
Data para cambiar lo que significa saber: "La nueva disponibilidad de enormes cantidades de
datos, junto con las herramientas estadísticas para hacer crujir esos números, ofrecen una
nueva manera de entender el mundo. Correlación reemplaza la causalidad, y la ciencia puede
avanzar incluso sin modelos coherentes, teorías unificadas, o en realidad cualquier explicación
mecanicista en absoluto. No hay ninguna razón para aferrarse a nuestras viejas costumbres. Es
el momento de preguntar: ¿Qué se puede aprender de la ciencia Google "(Ibíd.)?
Para algunos, el nuevo visionario es el científico de datos que mágicamente conjura la verdad
de montañas de información aparentemente no relacionada. Según un observador, "la Big
Data ha creado un dios mítico llamado el científico de datos: un lobo solitario, humano super-
inteligente con una base sólida en ciencias de la computación, modelado, estadísticas, análisis,
matemática y fuerte visión para los negocios, junto con la capacidad de comunicar sus
hallazgos, junto con la aptitud de comunicar los mismos a los líderes empresariales y de IT de
una manera que puede influir en cómo una organización se acerca a un desafío
empresarial"(Walker 2013) Un observador ve el científico de datos como el sucesor de los
icónicos "Mad Men" de la publicidad (2012a.) Los mitos son importantes. En este caso la
aparición del científico de datos, como el último dios mítico está teniendo un impacto
significativo en la educación superior donde las universidades están luchando para producir
programas para capacitar a los aspirantes, de lo que la Harvard Business Review, no ajeno al
exceso hiperbólica, llama "el trabajo más sexy del siglo 21 "(Miller 2013). A pesar de las
limitaciones presupuestarias creadas en parte por los programas fallidos inspirados en la
burbuja de las punto-com de la década de 1990 y la burbuja financiera que recibió el nuevo
siglo, nuevos programas han surgido en todos los niveles de la educación superior. Por lo
general, incluso la tenue New York Times lo ha llamado como la fiebre. Declaran que los
científicos de datos son "los magos de la era de la Big Data", el diario describe sus muchos
talentos: “Ellos craquean los datos, usan modelos matemáticos para analizar y crear narrativas
o visualizaciones para explicarlos, después sugieren como usar esa información para tomar
decisiones” (ibid.) No es seguro que ellos también pueden traer a casa el tocino y freírlo en una
sarten, pero el Times está satisfecho de transmitir, sin reflexión crítica, un informe
promocional de McKinsey que pronostica los millones de empleos que la demanda de
científicos de datos creará. Es notable que después de las catástrofes económicas provocadas
por la fe casi entusiasta en el IT de finales de 1990 y en los algoritmos de Big Data que
ayudaron a traer a Occidente al borde de una nueva Gran Depresión en 2008, los educadores
sigan persiguiendo la nueva moda, la moda siguiente. Esta vez será diferente. Los mitos
importan.
Un ejemplo actual de la creación de mitos en torno a la Big Data es un libro de 2013, realizado
por un par de analistas conocedores cuya poderosa prosa comienza con este título: “Big Data:
una revolución que transformará la forma en la que vivimos, trabajamos y pensamos” Una de
las características de un buen mito es su capacidad para inocular su historia con lo que parece
ser sobrio sentido común con el fin de lograr un grado de legitimidad antes de seguir adelante
con el gran cuento. Para los autores de Big Data , esto significa poner algo de distancia entre
ellos y Chris Anderson: "Big data puede no significar el " fin de la teoría”, pero si transformar
fundamentalmente la manera en que le damos sentido al mundo” (Mayer-Schönberger y
Cukier 2013, 72). Aquí, nos animamos a cuestionar la hipérbole implícita incluso cuando
adoptamos otra, reclamación igualmente extraordinaria. Para los autores, "la revolución de la
tecnología está en todas partes" y no se manifiesta solo en la tecnología, sino en la
información, que adquiere poderes aparentemente mágicos para cambiar la forma en que
conocemos el mundo (ibid.,77-78) Esto aparece de nuevo cuando recurren al método de
elección en el análisis de Big Data, encontrando correlaciones: "Con correlaciones, no hay
certeza, solamente probabilidad. Pero si la correlación es fuerte, la probabilidad de que ocurra
es alta. Ellos "demuestran" esto al pedirnos que observemos la conexión entre las sugerencias
de libros de Amazon y la aparición de esos libros en las estanterías de las personas (ibid., 53).
Sin inmutarse por la ausencia de nada que se parezca a la evidencia para apoyar su
aseveración, ellos van hacia adelante: "Al permitir que identifiquemos un buen proxy para un
fenómeno, las correlaciones nos ayudan a capturar el presente y predecir el futuro" (ibid, 53-
54). ¿Qué podría ser más mítico y sublime, más evidencia del arte del ilusionista, que la varita
mágica de la correlación? Sólo esta magia entrega más que solo conejos de los sombreros. Se
nos puede decir lo que es y lo que será.
Debido a que los mitos importan, es valioso proporcionar alguna reflexión crítica sobre estas
reclamaciones. Pero también es esencial comprender los límites de tal crítica, por muy
contundente que sea. La nube y la Biga Data son más que desarrollos técnicos porque su
surgimiento ha inspirado una nueva mitología que pone una nueva cara en lo digital, Que, a
fines del siglo pasado, prometió poner fin a la historia, aniquilar la geografía y transformar la
política. Como todos los mitos, están llenos de conjuradores mágicos que ofrecen
transformaciones revolucionarias y finales felices que se despedían de las limitaciones
temporales, espaciales y sociales que constituyen las banalidades de la vida cotidiana y dan la
bienvenida a un nuevo mundo en la nube. Ahora podemos conocer el pasado, representar el
presente y predecir el futuro como nunca antes, con un poco de suciedad por la fallida toma
de decisiones humana. Los datos hablan por sí mismos o por medio de magos en la ciencia de
datos. Como todos los mitos, que no pueden ser completamente evaluados en base a sus
afirmaciones de verdad, sino más bien, como el filósofo Alasdair MacIntyre (1970) concluyo,
sólo de si están vivos o muertos. Los mitos sobreviven si se siguen haciendo vida significativa y
si lo siguen haciendo, social e intelectualmente de forma tolerable, lo que de otro modo
podría ser experimentado como doloroso e incoherente. Los mitos no desaparecen cuando se
falsifican (observen su persistencia después de la quiebra de puntocom y la crisis financiera),
siempre que sigan animar a la gente y alimentar a sus esperanzas y sueños. Los datos de la
nube y grandes saben prometiendo una fuente inagotable de información accesible que será
utilizado para resolver los problemas que aquejan al mundo y hacer posible disfrutar de las
formas de perfección que hasta ahora han sido poco más que la materia de los sueños. Los
datos de la nube y la Biga Data prometen una fuente inagotable de información accesible que
será utilizado para resolver los problemas que aquejan al mundo y hacen posible disfrutar de
las formas de perfección que hasta ahora han sido poco más que la materia de los sueños.
La Big Data da prioridad a los datos cuantitativos sobre los cualitativos, argumentando que el
primero proporciona la mejor oportunidad para generalizaciones significativas y que, cuando
es necesario, los cualitativos pueden ser rendidos cualitativamente. Por ejemplo, un análisis de
contenido cuantitativo de los términos de búsqueda relacionados con la gripe, proporcionó a
Google lo que creía era una serie de términos que se correlacionaban con brotes de gripe,
permitiendo así a los investigadores predecir, antes que nunca, la propagación de la gripe. Si,
por otra parte, se opta por llevar a cabo un gran análisis de datos de un estado subjetivo, por
ejemplo, al asociar los mensajes positivos de Twitter sobre el Toyota Prius con las ventas del
coche, entonces uno podría asignar valores numéricos para capturar la fuerza de respuesta de
los posts. O la Big Data podría llevar a cabo un análisis que combine los resultados de
numerosas encuestas de satisfacción de clientes que asignan un número a cada posible
respuesta, como un 5 por fuerte aversión o un 3 por simplemente no estar de acuerdo con una
declaración. Después de todo, el fuerte like o dislike representa una atracción más poderosa
que el tan solo like o dislike. La medición de la cantidad no es sólo lo central; es absolutamente
esencial para la capacidad de transformación de Big Data. Como dos de sus defensores dan fe,
"Así como el Internet ha cambiado radicalmente el mundo mediante la adición de las
comunicaciones a los ordenadores, también cambiará la Big Data aspectos fundamentales de
la vida, dándole una dimensión cuantitativa que nunca antes había tenido" (Mayer-
Schönberger y Cukier 2013, 12). Hay mucho que decir para el análisis cuantitativo. Hace que el
comportamiento complejo, así como los estados mentales, sea fácil de procesar y analizar. No
es de extrañar que los especialistas en Big Data creen que "cuanto más cuantitativo sea,
mejor" (Morozov, 2013b, 232). La facilidad de análisis, la oportunidad de trazar amplias
generalizaciones y luego hacer predicciones, ofrece una fuerte tentación de reducir todos los
enfoques metodológicos a los cuantitativos. De hecho, la nueva profesión de científico de
datos sólo conoce enfoques cuantitativos. Además, los grandes datos permiten evitar la
necesidad de muestrear una población y todos los riesgos asociados con la representación
exacta de un grupo más grande, examinando los resultados para toda una población.
Como sociólogo, estoy muy familiarizado con la magia y el peligro de la correlación. Como
estudiante de posgrado en la década de los setenta, pude recordar girando en tarjetas de
perforación que recibí impresiones que me parecieron mágicas porque me proporcionaron
una serie de correlaciones y niveles de confianza (medidas de significación estadística) que,
incluso armadas con mi libro de estadísticas, me llevo horas completar. Esto me dio el primer
pequeño sabor de lo que una computadora mainframe podría hacer, pero todavía estaba
dentro del ámbito de mis propios poderes computacionales. Más de un salto se produjo en la
década de 1980 cuando, con otro colega, emprendí mi propio proyecto de investigación
basado en una encuesta nacional de trabajadores telefónicos en Canadá (Mosco y Zureik,
1987). Para esto, las variables se multiplicaron exponencialmente y por lo tanto fueron mucho
más allá de los cálculos manuales. Pero allí estaban, cientos de correlaciones que reunían
datos demográficos sobre la fuerza de trabajo, todo de la edad a la categoría de trabajo, con
actitudes sobre el trabajo, compañeros de trabajo, vigilancia y la tecnología que estaba
asumiendo más y más del proceso de trabajo. Esto parecía ser aún más mágico porque las
computadoras ahora estaban haciendo algo que yo ni siquiera podía lograr por mi cuenta.
Aunque no se trataba exactamente de los estudios de Big Data de hoy, porque dependíamos
de una muestra nacional en lugar de una población completa, me dio la primera sensación de
lo que era revisar una copia impresa cuyos números me hablaban. Pero no tomó mucho
tiempo, especialmente porque el miembro mayor de nuestro equipo era una mano
experimentada, para entender que gran parte de lo que estaba viendo era de nuestra propia
construcción. Establecimos y definimos las variables, creándolas a partir de nuestra propia
visión teórica que estableció lo que más importaba en nuestra opinión: el impacto de la
vigilancia electrónica en la satisfacción laboral. Como los datos populares (y muy exitosos) el
analista Nate Silver explicó: "Los números no tienen forma de hablar por sí mismos. Hablamos
por ellos. Les damos un significado. Cualquier otro punto de vista esta "muy equivocado" (Asay
2013). Eso se hizo muy claro cuando me di cuenta de que la mayor parte de lo que se hablaba,
quien hablaba, era jerga o, lo que Silver y otros llaman “ruido” (Plata 2012). Eso fue
principalmente porque la mayoría de las correlaciones que encontramos, aunque fuertes, eran
falsas o irrelevantes; es decir, la relación encontrada entre dos variables fueron creadas por
una o más variables o las correlaciones mismas fueron triviales. En lugar de encontrar una
aguja en un pajar, los grandes datos, como Nasim Talib (2012) y David Brooks (2013) han
notado con atención, a menudo sólo conduce a más pajares. Como Brooks (2013) dijo: "A
medida que adquirimos más datos, tenemos la capacidad de encontrar muchas, muchas más
correlaciones estadísticamente significativas. La mayoría de estas correlaciones son falsas y
nos engañan cuando estamos tratando de entender una situación. La falsedad crece
exponencialmente más datos recolectamos. El pajar se hace más grande, pero la aguja que
estamos buscando todavía está enterrada en el interior. "Dos de los mejores medios de
abordar una masa de correlaciones, de las cuales la mayoría son espurias o triviales, emplean
estrategias que tienden a ser ignoradas por la Big Data, especialmente por sus mayores
impulsores: la teoría y la historia. La teoría, es la historia explicativa, que dota de más sentido
a los datos. Ninguna historia tiene sentido porque la complejidad de los datos y el mundo que
representan sólo puede ser perfectamente teorizada por una explicación tan general que deja
de ser útil. Más bien, el objetivo es encontrar una teoría que esté basada en los datos y tenga
sentido razonable. Algunos argumentarían que esto requiere la inclusión de otro concepto
rutinariamente evitado por los entusiastas de la Big Data: la causalidad. Tiene más sentido
probar los datos frente a un modelo causal que esperar que los datos, por grandes y diversos
que sean la colección, hablen por sí mismos. De hecho, es dudoso que esto último sea posible
porque, dentro o fuera de la nube, los datos no son una entidad independiente de la
concepción o contaminación humana, sino que se crea a través de la inteligencia y el propósito
humanos, con todas sus limitaciones y sesgos. Sin embargo, la elección no es entre la teoría
causal o ninguna teoría en absoluto. Una posición intermedia se basa en la constitución mutua,
que sostiene que los conceptos y datos, la teoría y la evidencia, se construyen mutuamente o
se constituyen mutuamente en un proceso continuo de construcción de un argumento. A
continuación, los argumentos se someten a prueba con nuevos datos y argumentos
alternativos.
Hay otras maneras de constituir la teoría, pero el punto es que la investigación de cualquier
consecuencia, incluidos los estudios que utilizan grandes datas-sets, no puede acabar con ella.
Esto se debe a que los conceptos expresados en los datos ejercen una perspectiva teórica.
Como Brooks explicó, "los datos nunca son crudos; Siempre está estructurado según las
predisposiciones y los valores de alguien. El resultado final parece desinteresado, pero, en
realidad, hay opciones de valor a lo largo de todo, desde la construcción hasta la
interpretación "(ibid.) Puede ser ambiguo o claro, débil o fuerte, pero en virtud de nombrar lo
que se recoge, los datos no hablan por sí mismos. Más bien, le damos voz. Sin embargo, una
vez que lo hacemos, los datos, si son valiosos, contienen información que puede hablarnos, no
por sí misma, sino a través del marco teórico que ayudó a darle vida. Esta es la esencia de la
constitución mutua. Pero sigue siendo un mensaje lento para llegar a los entusiastas de la Big
Data. Cinco años después de que Chris Anderson proclamara el final de la teoría, los escritores
de Wired insisten: "Para la ciencia, tiene sentido ver la Big Data como una revolución. Los
algoritmos detectarán patrones y generarán teorías, por lo que hay una necesidad decreciente
de preocuparse por inventar primero una hipótesis y luego probarla con una muestra de datos
"(Steadman, 2013).
Además de dar a la teoría una atención insuficiente, la Big Data tiende a descuidar el contexto
y la historia. Esto se debe en parte a que los Big Data tienden a examinar el comportamiento
como un conjunto de eventos discretos o puntos de datos. Otra vez, Brooks ofreció una idea:
"Las decisiones humanas no son eventos discretos. Están incrustados en secuencias y
contextos. El cerebro humano ha evolucionado para dar cuenta de esta realidad. La gente es
realmente buena en contar historias que entretejen múltiples causas y múltiples contextos. El
análisis de datos es bastante malo en el pensamiento narrativo y emergente, y no puede
igualar la flexibilidad explicativa de una novela mediocre "(Brooks, 2013). El temor es que la
aparentemente mágica combinación de grandes datas-sets y el poder computacional masivo
llevará a la gente a reemplazar la narrativa con la correlación y, lo que es más importante, a
hacerse sólo o principalmente aquellas preguntas que la Big Data pueda responder. En el
mundo real de la historia, si no en el metafórico de las agujas y los pajares, el contexto cuenta.
No es sólo el lugar donde se esconden la verdad o las soluciones, sino que el contexto da
forma y sustancia a la verdad. Esta conclusión tiene un valor más que "académico", como lo
demuestra un estudio de la tecnología de comunicación utilizado en el desarrollo urbano. Hay
momentos en que el correo electrónico simple entre un grupo de individuos con mentalidad
comunitaria es más eficaz para lograr la resolución práctica de un problema complejo que el
análisis más sofisticado de Big Data (Applebaum 2013).
La Big Data es cada vez más utilizada en la investigación histórica, hasta el punto de que toda
una especialidad, la cliodinámica, se aplica cada vez más a investigaciones como la llevada a
cabo en la Universidad de Toronto para fechar manuscritos medievales mediante el análisis
del lenguaje y fraseo (Tilahun, Feuerverger y Gervers 2012 ). La especialidad incluye su propia
revista, Cliodynamics: The Journal of Theoretical and Mathematical History. El punto no es que
la Big Data carezcan de utilidad en la investigación histórica, sino que su uso es limitado y, al
menos que se entienda claramente, sería fácil extender la creación de la mitología sobre el fin
del método científico y el fin de la teoría y aplicarlo a un final putativo de la historia, o al
menos de la investigación histórica, como la conocemos. Esto es especialmente tentador
cuando la principal fuente de financiamiento para la investigación histórica es un programa
gubernamental para hacer de la historia un brazo de las humanidades digitales. Tampoco es
sólo cuestión de tomar grandes datas-sets y ponerlos en un contexto histórico. El contexto y la
historia no son contenedores discretos en los que uno pueda insertar datos objetivamente.
Son fluidos y requieren el juicio experimentado de profesionales cualificados cuya subjetividad
es un activo que enriquece lo que conocemos, esto no una responsabilidad que debe ser
puesta a un lado.
"En su esencia", según dos de sus principales promotores, "la Big Data se trata sobre
predicciones" (Mayer-Schönberger y Cukier, 2013, 11). Es difícil estar en desacuerdo con esta
conclusión y con el hecho de que subraya tanto la promesa como el peligro de confiar en
grandes datas-sets. La capacidad de moverse más allá de la muestra al azar a los miles de
millones de puntos de datos que Google utilizó para hacer predicciones sobre la propagación
del virus de la gripe es ciertamente atractivo y, para algunos, convincente y revolucionario.
Pero tenga en cuenta que incluso este proyecto parece haber tenido vida de almacenamiento
predictiva corta. Después de algunos años de éxito, el modelo de Google cayó de lleno en su
cara durante la temporada de gripe 2012-2013, sobrestimando groseramente el número de
casos. Es difícil decir exactamente por qué sucedió esto, pero los analistas apuntan a la
expansión de la cobertura de los medios de comunicación de la propagación del virus en
diciembre y enero, lo que llevó a muchas más búsquedas de Google utilizando términos de
búsqueda relacionados con la gripe de lo esperado por el algoritmo de la compañía. Además,
el auge de la cobertura tuvo lugar durante las fiestas, cuando la gente tiene más tiempo para
los medios de comunicación nuevos y viejos. Parece que la gente estaba buscando más no
porque tuvieran síntomas de gripe, sino porque los medios de comunicación replegaron su
cobertura de la gripe en un momento en que la gente estaba prestando más atención a los
medios de comunicación. Cualquiera que sea la causa, el daño fue hecho. Mientras Google
limpiaba su rostro corporativo, prometió mejorar su algoritmo para hacer mejores
predicciones en el futuro (Butler 2013; Poe 2013).Un modelo similar fuera utilizado para la
previsión del mercado de valores ,debe causar preocupación por las consecuencias de la
excesiva confianza en la Big Data para la economía (Waters 2013b). Sin embargo, los
economistas confían, hasta el punto de exuberancia, en que la Big Data transformarán la
investigación y la formulación de políticas (Einav y Levin, 2013). Una de las razones de este
entusiasmo es que los potenciales analistas anticipan el uso de Big Data para administrar
mejor la mano de obra temporal y de bajos salarios. Como resumió un informe, "se está
reorganizando la forma en que asignamos el trabajo, tal vez a un estado de trabajo
permanente, temporal, para las filas en su mayoría no técnicas de la fuerza de trabajo" (Hardy
2013c).
La nube y la Big Data vienen con la visión de perfeccionar nuestro conocimiento del mundo, así
podemos recopilar más información, mejorar el tamizado para correlaciones, y llegar a los
refinamientos correctos en modelos y algoritmos. Pero puede ser que el mundo sea tan
complejo que las altas aspiraciones de los entusiastas de la Big Data estén fuera de su alcance.
Tal vez sería ,mejor al menos, complementar estudios de datos grandes con entrevistas de
profundidad anticuadas sobre una muestra cuidadosamente seleccionada. Pero la
diversificación de los métodos sólo es posible cuando los analistas abordan el problema con
mentes abiertas y la habilidad para llevar a cabo la investigación utilizando múltiples enfoques,
en lugar de pensar que hemos descubierto la clave de una transformación revolucionaria en la
forma de adquirir conocimientos.
Dado su considerable éxito en la predicción de los resultados electorales, uno no esperaría que
Nate Silver tomara una visión crítica de la Big Data. Sin embargo, esta es precisamente la
posición que apoya en toda su escritura, pero especialmente en The Signal and The Noise
(2012), una visión cuidadosamente escrita de los problemas potenciales del análisis estadístico
y la predicción a gran escala. Para Silver, la devoción a las técnicas estadísticas y los valores del
análisis Bayesiano significa comprometerse con las probabilidades por encima de las certezas y
reconocer que toda investigación está infundida con sesgos que podemos reconocer, si no
eliminar, y luego explicarlos. Suponga, sostiene, que la complejidad del mundo pone la
certidumbre fuera del alcance y es probable que haga un mejor trabajo de aproximar una
conclusión precisa y hacer predicciones razonables, si no siempre exactas. No es el tamaño del
conjunto de datos, pero, como ha sido el caso siempre y cuando las personas han llevado a
cabo la investigación social, la habilidad y la humildad del investigador que más a menudo
determinan el éxito.
Un buen ejemplo de este punto surgió en 2013 cuando un estudiante de doctorado descubrió
errores significativos en un documento académico que ha sido utilizado por los responsables
políticos y tomadores de decisiones corporativos para apoyar fuertes medidas de austeridad
económica por parte de las autoridades públicas de todo el mundo. El artículo "Crecimiento en
un momento de deuda" se basó en varios grandes datas-sets para demostrar ostensiblemente
que cuando la relación de la deuda pública con el producto interno bruto (PBI) supera el 90 por
ciento, la tasa media de crecimiento económico disminuye un 1 por ciento y el promedio
considerablemente más. El umbral del 90 por ciento se aplicó tanto a las economías
desarrolladas como a las emergentes (Reinhart y Rogoff 2010). Si se puede hablar de un
hallazgo académico que se hace viral, este papel es un primer caso en el punto. Los autores,
uno de los economistas de la Oficina Nacional de Investigación Económica en Washington DC y
el de Harvard, alcanzaron el estatus de estrellas de rock académico, Incluyendo un largo perfil
del New York Times con el titular que deja sin aliento, "Ellos hicieron su tarea (800 años de
ella)" (Rampell 2010) Se escribió y se habló en casi todos los principales medios de
comunicación. Otra estrella del rock académico, el historiador Niall Ferguson, se refirió a ella
como "la ley de las finanzas" (Konczai 2013). Más importante aún, los legisladores usaron el
documento para promover medidas rígidas de austeridad porque parecía demostrar que el
recorte del gasto gubernamental revertiría el declive económico y estimularía el crecimiento.
Esto fue un giro significativo porque, a partir de la década de 1930, los gobiernos creían más o
menos que el gasto público, especialmente en infraestructura y obras públicas, estimularía el
crecimiento, incluso si significaba asumir deuda. La nueva investigación demostró algo
fundamentalmente diferente: una vez que la deuda pública alcanzó la proporción mágica del
90 por ciento del PBI, la economía muestra un ritmo de crecimiento más lento.
Gobiernos, corporaciones y grupos de reflexión conservadores aprovecharon los hallazgos para
apoyar, implementar y justificar recortes en el gasto público, aun cuando sus economías
sufrieran lo que algunos creían que era un gasto inadecuado. Incluso cuando los gobiernos
siguieron experimentando una recesión económica, una inmersión doble y hasta una triple
inmersión, sus líderes se aferraron a la fórmula mágica. Luego en 2013, Thomas Herndon, un
estudiante de doctorado en la Universidad de Massachusetts que aún no había comenzado a
trabajar en su propia disertación encontró errores significativos en los datos del artículo
original, cuestionando así sus hallazgos centrales. Como describió un comentarista, "Uno de los
puntos empíricos fundamentales que proporcionaron la base intelectual para el “movimiento
global a la austeridad”, a principios de los años 2010, se basó en que alguien accidentalmente
no actualizó una fórmula de fila en Excel" (Wise 2013) El estudiante estaba simplemente
tratando de replicar los resultados originales para un proyecto de econometría y no podía
hacerlo con documentos disponibles públicamente, por lo que se puso en contacto con los
autores y pidió sus hojas de cálculo, que proporcionaron. Rápidamente descubrió errores en la
información de datos sobre las tasas de crecimiento nacional y los niveles de deuda,
publicando los resultados (Herndon, Ash y Pollin 2013). Finalmente, los autores de la pieza
original admitieron los errores, pero se mantuvieron firmes en la política de austeridad.
Como se podría esperar, el debate se agrava, con la mayoría de los gobiernos que continúan
practicando la austeridad incluso cuando cambian su justificación subyacente (Vina y Kennedy
2013). Sin embargo, las implicaciones para la Big Data es significativas. Antes de que los
errores fueran detectados, críticos como el premio Nobel Paul Krugman plantearon una
preocupación familiar a los especialistas en Big Data. El documento de Reinhart y Rogoff, se
queja Krugman, utiliza Big Data para sacar conclusiones basadas en correlaciones, no en la
causalidad: "Todo lo que hace es mirar una correlación entre los niveles de deuda y el
crecimiento. Y dado que los niveles de deuda no son eventos extremadamente agudos, no hay
una buena razón para creer que están identificando una relación causal. Los años de alta
deuda también fueron los años inmediatamente posteriores a la Segunda Guerra Mundial,
cuando lo más importante en la economía fue la desmovilización de la posguerra, lo que
naturalmente implicó un crecimiento más lento: Rosie la Riveter estaba volviendo a ser un ama
de casa "(Krugman 2010) Además de identificar las limitaciones del análisis correlacional, el
caso revela que, por su naturaleza, la Big Data puede crear grandes problemas. En primer
lugar, los errores al introducir datos en celdas clave pueden crear cambios significativos a lo
largo del análisis, amplificando las consecuencias de los errores originales. En este caso, los
errores condujeron a un poderoso hallazgo agradable para los responsables políticos y líderes
corporativos predispuestos a la austeridad, que resultó, al menos, exageradamente exagerada.
En segundo lugar, el tamaño de los conjuntos de datos hace que sea difícil para los pares y
otros revisores para detectar errores. No es común que los revisores tengan acceso a las
entradas de datos originales, y ciertamente no en el caso de datas-sets con múltiples variables
que abarcan numerosos países y períodos de tiempo. En este caso, si no fuera por el trabajo de
un estudiante de doctorado altamente motivado, es poco probable que los errores hubieran
sido capturados, y el paper habría mantenido su nivel como la piedra angular intelectual para
las políticas de austeridad. La Big Data pueden contener y enmascarar grandes errores con
grandes consecuencias. Como un educador de negocios concluyó, "No me malinterpreten: Los
datos son críticos. Pero la historia sugiere que hace trucos sobre nuestra capacidad de
comprender objetivamente todas las variables que están en juego en el mundo. Así que ten
cuidado: Aunque muchos profesionales te dicen que los datos son sólo uno de los muchos
puntos de decisión, he encontrado que demasiadas personas confían demasiado en su
información. ¡Pero como hemos visto, los datos pueden mentir! "(Langer, 2013).
CULTURA DE LA NUBE
Las críticas técnicas dirigidas a la dependencia singular de la Big Data sobre la cuantificación y
la correlación, y su abandono de la teoría, la historia y el contexto, pueden ayudar a mejorar el
enfoque y quizás la investigación en general, ciertamente más que los intentos omnipresentes
de fetichizar la Big Data. Pero los grandes datos son algo más que una herramienta
metodológica. Promueve una forma muy específica de saber que, cuando está conectado a la
expansión global de la computación en la nube, tiene implicaciones significativas.
Específicamente, el cloud computing proporciona una poderosa base tecnológica para apoyar
el positivismo digital de la Big Data o la creencia específica de que los datos, adecuadamente
circunscritos por la cantidad, la correlación y el algoritmo, nos hablarán. La capacidad de
procesar miles de millones de puntos de datos en la nube, en el tiempo que tarda en leer esta
frase, ayudó a legitimar el proyecto de gripe de Google, como lo hacen muchos otros
proyectos de Big Data. La nube puede ser central a un mito pero, en esto como en tantos otros
casos, los mitos importan. Por lo tanto, es importante criticar la nube como una fuerza cultural
porque no es sólo un método; Es una manera completa de saber que, si se deja de lado una
reflexión crítica, desbordará otros caminos legítimos hacia la comprensión.
Las nubes están entre las imágenes más evocadoras de la historia de la cultura porque han
sido parte cotidiana de las vidas de todos los que han vivido. No es ninguna sorpresa, por lo
tanto, que el mirar de la nube para buscar símbolos y los signos, conocidos como
Nefelococigia, sea un arte antiguo. Las nubes son también ricamente evocadoras, porque
adoptan una variedad casi infinita de diseños, proporcionando, para muchos, una introducción
temprana a la forma y lo que significa transformar una forma en otra. Los altocúmulos llenan
el cielo con bolas de algodón gigantes, los cirrocúmulos con parches de arroz y con
ondulaciones celestes de arena. Estas imágenes benignas desaparecen cuando una formación
de arcos señala el borde delantero de una tormenta inminente, o cuando un tubo dispara de
nubes oscuras un chorro de agua para crear lluvia (Pretor-Pinney 2011). Las nubes son más
que evocaciones culturales porque reponen el recurso ,que es absolutamente esencial, para
sostener la vida, llevando a hechiceros y científicos durante los milenios a aplicar sus talentos
particulares para evocarlas como hacedoras de lluvia. En este sentido, la nube es trascendente
porque conoce todo el tiempo y todo el espacio, y supervisa toda forma de vida orgánica.
No es de extrañar que las nubes tengan una rica historia en prácticamente todas las culturas, y
Occidente ciertamente no es una excepción. Es la metáfora perfecta para la informática de
hoy, cuya red global de 24/7 centros de datos vinculados a sistemas de telecomunicaciones y
dispositivos inteligentes, también trasciende el espacio y el tiempo. Al igual que las nubes
reales producen lluvia, como si fueran duchas de recurso que muchos consideran
absolutamente esencial para el mundo de hoy : conocimiento. Ciertamente un literalista
podría señalar el vapor en el cielo y los gigantescos depósitos de cemento en la tierra y no
declarar ninguna conexión entre los dos. Pero eso perdería los ricos vínculos metafóricos que
dan tanto un toque de lo divino. Nos maravillamos de las nubes en el cielo porque están
siempre presentes y, sin embargo, son infinitamente diversas. Se asocian con la sublime
beneficencia por la lluvia que traen y, también, con un terror sublime cuando lo retienen o
provocan la destrucción en forma de relámpagos, tornados e inundaciones. Sus contrapartes
tecnológicas, las vastas fábricas de datos de los campos, proporcionan una nube de
conocimiento, un sistema de información omnipresente e infinita que una vez estuvo
reservada a lo divino y, desde el destierro de la humanidad del paraíso, ha sido negada a
todos.
Hay muchos otros ejemplos de la historia cultural de la nube que podrían haber servido
también. Las nubes llenan las imágenes naturales y míticas de la Ilíada de Homero, sugiriendo
la dualidad de la belleza pastoral de la naturaleza y el interés de los dioses por las oscuras
nubes de la guerra. El fresco del siglo XIII de Giotto en la Basílica de San Francisco de Asís
contiene un diablo escondido en las nubes, que representa la escena en la tierra y en el cielo
en el momento de la muerte del santo. Para el gran artista, incluso un escenario de
majestuosidad celestial incluye un guiño al Príncipe de las Tinieblas. La galardonada escritora
Annie Proulx tituló su evocadora "memoria del lugar" Bird Cloud porque, en su primera visita al
inmenso humedal y pradera de Wyoming que se convertiría en su hogar, una nube en forma
de pájaro la recibió en el cielo al atardecer. Para el escritor, era una señal para establecerse allí
y una indicación de la rica y aparentemente siempre presente vida de los pájaros en la zona.
Hay muchos otros ejemplos potenciales, y algunos harán una breve aparición, pero los tres que
he elegido disfrutan de la ventaja de cubrir una franja significativa de la historia occidental,
representan tres formas diferentes de la palabra escrita y, lo que es más importante, hablan
evocadora, Si metafóricamente, acerca de la significación más profunda y las amenazas
representadas por la computación en la nube y la Big Data. Otros más expertos que yo pueden
pensar sin duda en ejemplos de la música y las artes, y fuera del mundo de las humanidades
occidentales.
A pesar de que fue atacado por varios críticos y obligado a reescribir cuando se realizó por
primera vez en 423 aC, es difícil sobreestimar la importancia de “The Clouds” de Aristófanes
para la literatura, la historia de las ideas y para los debates de hoy sobre lo que significa el
conocimiento en una sociedad de la información. Después de 2.500 años, sigue siendo un
modelo para lo que Eve Smith llama "comedia como conciencia social" (Smith, 2013).
Sorprendentemente, la obra logra todo esto a través de una sátira que socorre a Sócrates, uno
de los pensadores más venerados de la historia del mundo y, en la mente de algunos, un
mártir de sus creencias. La trama se centra en Strepsiades, un hombre próspero que ahora
está ensimismado con deudas, que planea salir de debajo de ellos enviando a su hijo flojo
Pheidippides al Thinkery, la escuela ficticia establecida por Sócrates que enseña cómo ganar un
argumento no importa cómo. O como Strepsiades describe a su hijo, "allí demuestran que
somos carbones cerrados por todos lados bajo un inmenso bufón, que es el cielo. Si son bien
pagados, estos hombres también enseñan cómo ganar pleitos, ya sean justos o no. "La obra
convierte al gran filósofo en un Dale Carnegie, cuyo libro clásico sobre relaciones públicas,
“How to Win Friends and Influence People” la Biblia de la comercialización en la publicación
de1936. Las nubes es el nombre para el coro de la obra, que se levanta de los océanos para
vivir en los cielos, examinando el mundo con una mirada panóptica y, cuando convocado
apropiadamente, comparte su conocimiento profundo y retórica inteligente con Mortales
terrenales. Cuando el hijo de Strepsiades se muestra más flojo que el friki, Strepsiades decide
inscribirse en el Thinkery después de consultar a un estudiante en la escuela que se jacta de la
investigación dirigida por Sócrates, incluyendo "Cuántas veces la longitud de sus piernas hace
un salto de pulgas", que Llevó a una nueva unidad de medida, el pie de la pulga (pulgada); La
fuente del zumbido de un mosquito: su ano en forma de trompeta; Y el uso sofisticado de
brújulas para derrotar a un lagarto que interrumpía un "pensamiento sublime" del gran
filósofo que mira hacia el cielo justo a tiempo para recibir uno de los excrementos no tan
sublimes del lagarto. ¿Es esta ciencia o curiosidad inútil? Cualquiera que sea la respuesta, y
está claro dónde está el dramaturgo, el debate ciertamente resuena en un mundo
caracterizado por una aparente saturación de información (Andrejevic 2013).
En lugar de huir de la aparentemente loca Thinkery, Strepsiades está más convencido que
nunca de que Sócrates puede rescatarlo, aunque no está claro si esto se debe a que él cree
que Sócrates es un gran pensador o un hombre tan magistral que puede convencer a la gente
para alabar su trivial investigación. No le importa al aspirante a estudiante porque
simplemente necesita la habilidad retórica para conquistar a los acreedores. En su primera
reunión, Strepsiades se encuentra con Sócrates, quien convoca a las nubes para consejo con
ofrendas de sacrificio y su habilidad oratoria de firma: "Si usted está descansando en las
cumbres sagradas del Olimpo, coronado con hoar-helada, o esperando en los jardines de
Océano, su Padre, formando coros sagrados con las Ninfas; Si juntas las olas del Nilo en vasijas
de oro o vives en el pantano Maeotic o en las rocas nevadas de Mimas, escucha mi oración y
acepta mi ofrenda” . La convocatoria es exitosa y el coro de la nube revela inmediatamente su
carácter sardónico al saludar a Sócrates como el "gran sumo sacerdote de las sutilezas sin
sentido". Refutando al filósofo para poner la retórica por delante del conocimiento, el coro
demuestra su propia habilidad retórica prometiéndoselo al desesperado Strepsiades, "Los
clientes estarán sitiando su puerta en multitud, ardiendo para llegar a usted, para explicarle su
negocio y para consultarle sobre sus trajes, los cuales, a cambio de su habilidad, le traerán
grandes sumas". Desafortunadamente para él, Strepsiades demuestra ser un estudiante pobre.
Tal vez su edad le ha dado demasiada experiencia, sabiduría y carácter para aceptar una
educación que valore las trivialidades y la retórica. O tal vez no es adecuado para los métodos
esotéricos Sócrates se aplica.
“The Clouds” tiene casi 2.500 años de antigüedad, pero sigue siendo hilarante y notablemente
moderna. Cuando el coro de la nube sale de su papel como una fuente celestial de sabiduría
para abogar con la audiencia para "gustar" esta nueva versión de una obra que primero abrió a
revisiones débiles y entonces vuelve a su naturaleza, uno no puede dejar de pensar en los
narradores. En “Thornton Wilder Nuestra ciudad” y “La piel de nuestros dientes”, que se
mueven sin esfuerzo a través de tiempo y espacio dramático. Pero para nuestros propósitos
“The Clouds” hablan más poderosamente a través de dos milenios y medio a un mundo de
nuevas nubes que también revisaría el significado del conocimiento. Consideremos sus
primeras palabras en respuesta a la invocación de Sócrates: "Nubes Eternas, aparezcámonos;
Levántese de las rugientes profundidades del océano, nuestro padre; Volamos hacia las
elevadas montañas, extendemos nuestras húmedas alas sobre sus cumbres boscosas, de
donde dominaremos los lejanos valles, la cosecha alimentada por la tierra sagrada, el
murmullo de los arroyos divinos y las retumbantes olas del mar, que globo incansable se
enciende con sus brillantes vigas. Pero sacudamos las nieblas lluviosas que ocultan nuestra
belleza inmortal y barren la tierra desde lejos con nuestra mirada". La metáfora de Aristófanes
sobre el coro que sale de los océanos para convertirse en un cielo lleno de nubes es apropiada
para la nube moderna porque ofrece una forma de concebir a través del discurso el
conocimiento panóptico que es a la vez información y medios de vigilancia mirando al mundo
e interveniendolo para modificar el pensamiento y el comportamiento. Aristófanes envía una
llamarada de advertencia a través del arco de la computación en nube. No hay conocimiento
separador del poder, información omnipresente de la vigilancia omnipresente.
Para “The Clouds”, la tensión ontológica clave no es entre conocimiento y datos, sino más bien
entre razón y retórica. Se ven como diferentes porque la razón, lo que Aristófanes llama en el
juego "discurso justo", avanza, según su carácter: "presentando lo que es verdadero". La
retórica, por otra parte, descripta sin sutileza como "discurso injusto", tuerce la verdad con
fabricaciones hábilmente construidas que llevan el triunfo. El coro de la nube es de dos
mentes, al principio parece aprobar el resultado, pero después admitiendo que la retórica sólo
le permitió ganar para enseñar a Strepsiades una lección: aquellos que buscan un acceso
directo al éxito serán cortados de cuajo. Aquí Aristófanes advierte contra el poder seductor del
lenguaje deslumbrante disfrazado de sabiduría de las nubes. Hay una línea fina entre la razón y
la retórica, la verdad y el giro, el conocimiento y la publicidad. La forma de saber establecida
hace 2.500 años no viene en la forma del rey filósofo (tal figura era sólo una aspiración
platónica). Más bien, es el filósofo-tramposo, el doctor de la técnica intelectual que domina
con el conocimiento y la retórica mutuamente constituyentes y mutuamente contaminantes.
En la manera occidental de saber, no hay verdad pura almacenada y procesada en la nube;
sólo hay una lucha constante entre la razón y la retórica, algo que el filósofo-tramposo
contemporáneo Bruno Latour reconoce en su replanteamiento de los debates entre Sócrates y
los sofistas en la magistral Esperanza de Pandora (1999).
Los residentes del siglo XIV de las islas británicas vivían con miedo al chelín negro. Esto es una
referencia a la hinchazón circular oscura que apareció en la axila o ingle señalando la presencia
de la peste bubónica y la probabilidad de que la muerte estaba cerca. En la última parte de ese
siglo, la mitad de la población de Inglaterra desapareció después su llegada, un claro
recordatorio de que el período medieval tardío significaba mucho más que señores y señoras.
Como si la peste negra no fuera suficiente, el país estaba en constante estado de guerra con
Francia. De hecho, la llamada Guerra de los Cien Años duró más de un siglo. No es de extrañar
que cuando se impuso un nuevo impuesto a los campesinos, respondió con una agitación
social que azotó varios países y aterrorizó a las autoridades. Fuera de este oscuro y tumultuoso
escenario, un hombre religioso anónimo (uno sospecha que era un sacerdote o monje)
produjo una guía para un joven iniciado en el monasterio llamado “La Nube del
Desconocimiento” (Anonymous 2009)
La obra del sacerdote jesuita apela a una sublime visión de la trascendencia a través del
conocimiento. Específicamente, como lo describe Teilhard en su obra principal “El Fenómeno
del Hombre” (1961), además de la atmósfera que rodea nuestra tierra y haciendo posible la
vida tal como la conocemos, también estamos rodeados por una noosfera o esfera de
pensamiento que crece más y más Más potente con la aceleración de la producción mundial
de información. Como describió el biólogo y antropólogo David Sloan Wilson: "Como un nuevo
proceso evolutivo, sin embargo, nuestro origen fue casi tan trascendental como el origen de la
vida. Teilhard llamó al mundo creado por el hombre la noosfera, que se extendió lentamente
como una piel sobre el planeta, como la piel biológica (la biosfera) que la precedió. Él imaginó
"granos de pensamiento" que se unían a escalas cada vez mayores hasta que se convirtieron
en una sola conciencia global que él llamó el Punto Omega "(Revken 2012). Para algunos
entusiastas cibernéticos tempranos y actuales, el trabajo de Teilhard reafirmó su compromiso
de progresar a través del conocimiento, a una visión de la evolución que se extendía más allá
de Darwin al reino del pensamiento puro, ya su creencia de que la era de la información era
más que un marcador conveniente para el último paso de las etapas agrícola e industrial del
desarrollo humano. En su opinión, fue una divisoria en la evolución humana, orgánica y
cósmica. Más que un nuevo medio de producción, la informática y otras tecnologías de la
información fueron claves para un mundo posthuman. La nuestra no es sólo una Edad; Es una
misión.
“La Nube del Desconocimiento” fue concebida como una guía espiritual para una vida que
aspira a la unidad con Dios. Pero también puede leerse como un texto secular donde lo
sobrenatural es entendido como una metáfora para la máquina perfecta, el algoritmo perfecto
o la sabiduría derivada de una rica comprensión del conocimiento y la información hecha
posible por tecnologías como la computación en la nube. A mi entender, nadie ha abordado
“La Nube del Desconocimiento” a través de la lente de la tecnología de la información. Esto es
comprensible porque, a diferencia de las nubes de la noosfera de Teilhard o de la singularidad
de Kurzweil, aquellas presentadas por el autor anónimo de “La Nube del Desconocimiento”,
aunque sustancialmente el mismo contenido, no es sino la puerta sublime a la evolución
cósmica o la clave de la era de las máquinas espirituales. La nube de esa escritura anónima
está asociada con los datos, los hechos, la información y los detalles que comprenden las
banalidades discursivas de la vida, lo que podríamos llamar grandes datos almacenados en la
nube o los pajares que rodean las estimadas agujas descubiertas por los científicos. Pero para
el maestro del siglo xiv, las nubes de información, tan atractivas hoy en día, sólo obstaculizan
el propósito de la vida. Para el autor de esa obra, el propósito de la vida era descubrir el
verdadero conocimiento de Dios; Para un mundo secular significa cómo las nubes de
información se interponen en el camino de la verdad. Para Teilhard, Kurzweil y cualquier
defensor de la computación en la nube y de la Big Data, el camino hacia el conocimiento, si no
hacia la sabiduría y la singularidad, es crear más datos, analizarlos y sacar conclusiones y
predicciones. Para ellos, más datos e información conducen a más conocimiento, mejores
predicciones y un mundo mejor.
Para nuestro escritor del siglo XIV, perseguir la nube no es la clave de la sabiduría; se pone en
el camino de la sabiduría. En su lugar, concluye, es esencial purgar sistemáticamente las
banalidades de la vida, incluyendo los muchos fragmentos de datos, información y
conocimiento ("todas las cosas creadas, materiales y espirituales" ) que literalmente nublan la
verdad. Dado lo difícil que es para el pueblo del siglo XIV realizar este proyecto, describe las
prácticas de contemplación y meditación que permiten superar la nube del desconocimiento:
"Secular o religiosa, si tu mente está inflada por Orgullo o seducción por los placeres
mundanos, las posiciones y los honores, o si anhelan la riqueza, el estatus y la adulación de los
demás, nuestra capacidad dada por Dios de razonar es servir al mal ". Saber requiere actos de
desconocimiento. Es difícil para la mente moderna, que está capacitada para ver más como
mejor, comprender esta perspectiva. Para los seculares, cuanto mayor sea la nube (el conjunto
de datos o el pajar), más probabilidades habremos de resolver los problemas del mundo. Para
aquellos que apoyan lo que Noble (1997) llamó "la religión de la tecnología", si esto significa
Kelly viendo a Dios en la máquina, Teilhard imaginando una noosfera o Kurzweil anticipando
una era de máquinas espirituales, el crecimiento de la nube es un parte esencial del destino
humano, un paso en el proceso de la evolución. Dadas estas opiniones y otras entre los
entusiastas de la tecnología, la naturaleza religiosa de “La Nube del Desconocimiento” parece
ser menos problemática que su epistemología o forma de conocer por desconocimiento.
Sin embargo, el renacimiento de la popularidad del libro y el interés en una gama de prácticas
religiosas y no religiosas de la meditación sugieren que incluso su epistemología no está tan
lejos del radar del pensamiento contemporáneo. La traducción de 2009 del inglés medio, con
un largo ensayo introductorio en la edición utilizada para este libro, sugiere que hay interés
continuo en este trabajo. Una edición de 1973 se benefició del surgimiento de la contracultura
de los años 60 y sobre todo de su interés en formas alternativas de conocimiento, punto al que
alude su introducción por el renombrado erudito religioso Huston Smith. Uno de los novelistas
más importantes de nuestro tiempo, Don DeLillo, hace uso de “La Nube del Desconocimiento”
en dos de sus obras más conocidas. En 1985, White Noise, que traza la propagación de una
nube tóxica, alude a un niño como "una nube de desconocimiento" (290). Porque los niños no
saben la muerte, están abiertos a más del mundo que los adultos, que presumiblemente ven
en la vida su muerte inevitable. Ante el inexplicable impacto que el "evento tóxico
transportado por el aire" ha llevado a los atardeceres, las personas se reducen a un sublime
sentimiento de inconsciencia infantil: "Hay temor, todo es temor, trasciende categorías
anteriores de asombro, No sabemos si estamos viendo con asombro o temor, no sabemos lo
que estamos viendo o lo que significa, no sabemos si es permanente, un nivel de experiencia a
la que vamos a ajustar gradualmente, en el que nuestra incertidumbre Eventualmente se
absorberá, o sólo algo de rareza atmosférica, que pronto pasará "(324-325). La visión de la
puesta del sol, vista a través de la tecnología te volverá loco, trae una extraña serenidad, a
pesar de "los hombres en trajes Mylex. . . Recogiendo sus terribles datos ". DeLillo continúa:"
Nadie toca una radio o habla con una voz que está muy por encima de un susurro. Algo dorado
cae, una suavidad al aire "(325). Más importante aún, en su obra maestra ampliamente
reconocida, Underworld de 1998, DeLillo utiliza el libro del siglo XIV como el título y el
leitmotiv de una de las seis partes de su novela épica, teniendo el personaje principal Nick
Shay describir su contenido en medio del amor con Una mujer que ha conocido
recientemente. Ninguna cantidad de conocimiento, sostiene Shay, puede comprender la
negación que llamamos Dios. Es sólo mediante la participación en nuestras propias formas de
no saber que esto comienza a ser posible. Hay muchas otras referencias de los iconos
culturales, incluyendo Somerset Maugham (el borde de la navaja de afeitar), J. D. Salinger
(Franny y Zooey), y Leonard Cohen (en su canción "The Window").
Es improbable que el escritor de “La Nube del Desconocimiento” se una a las filas de aquellos
que, como Teilhard, son aclamados por predecir Internet y ahora la nube, mucho antes de su
tiempo. Pero tal vez debería, aunque sólo sea porque el maestro medieval ofreció una
alternativa genuina a lo que se convertiría en una forma dominante de conocer en Occidente
que amenaza con superar desafíos a la nube, Big Data y el positivismo digital que promueven.
UN ATLAS DE NUBES
La novela de Mitchell, que ganó numerosos premios y nominaciones, también fue adaptada
para la pantalla por los creadores de la trilogía The Matrix, a revisiones tibias, tal vez evidencia
de lo difícil que es convertir una novela cuyo autor se toma principalmente con la metáfora de
la nube en una película cuyos creadores sacan sus metáforas del mundo de los datos. “Cloud
Atlas” cuenta con seis personajes cuyas vidas se extienden desde el siglo XIX al futuro lejano,
entrecruzando el mundo, pero terminando donde comenzaron, en las islas del Pacífico Sur. Los
personajes están contenidos en historias discretas que proceden cronológicamente, las cinco
primeras se rompen antes de terminar. Cada historia hace referencia a la anterior haciendo
que un personaje lo lea como, por ejemplo, una persona mira una revista producida por el
personaje principal de una historia anterior. La sexta historia es el punto de pivote, y de esa,
cada historia se completa en orden cronológico inverso, cada cuento anidados dentro de los
otros como un conjunto de muñecas rusas. Recuerdo el poema clásico de Shelley, la historia de
Mitchell es cíclica. La linealidad que parecemos experimentar es poco más que un espejismo
reconfortante.
La nube y su atlas toman tres formas en la novela. La primera es la música, que, junto con la
poesía, es un tipo familiar de discurso para presentar las nubes. Uno de los seis personajes, un
joven músico llamado Robert Frobisher, trabaja en "The Cloud Atlas Sextet", que completa
justo antes de suicidarse. El siguiente personaje principal que aparece localiza una rara
grabación de la pieza en una antigua tienda de música. El sexteto encarna la unidad en la
diferencia que los seis personajes principales representan y se produjo mientras que el joven
Frobisher estaba ayudando a un compositor bien conocido a completar la sinfonía mayor,
apropiadamente llamada Recurrencia Eterna. Contemplando su plan para acabar con su joven
vida, Frobisher es decidido: "Mi cabeza es una vela romana de invención. Música de por vida
llegando a la vez. Los límites entre el ruido y el sonido son convenciones, veo ahora. Todos los
límites son convenciones, veo ahora, también nacionales. Uno puede trascender cualquier
convención, si sólo uno puede concebir primero hacerlo "(Mitchell 2004, 460). Y así Frobisher
trasciende la convención al concebir un atlas de nubes, en forma musical.
El sexteto de Frobisher es la forma en que la nube habla de los protagonistas de la novela, pero
cada personaje también está conectado a otro, y así vive en el flujo de la historia, a través de
una forma distinta de comunicación, una segunda manifestación de la nube. Luisa Rey es el
personaje de un misterioso cocinero, Timothy Cavendish vive en una película sobre su vida
triste, y Sonmi, un cyborg heroico, emerge en el futuro como una diosa cuyos totems son
adorados. El simple Zachry sobrevive a través de las historias, algunas verdaderas, otras no,
que sus hijos recuerdan. Finalmente, a medida que el mundo se encuentra al borde de la
destrucción auto-infligida, nos encontramos con el orison, un pequeño dispositivo de
comunicación holográfica, que está varias generaciones por delante del smartphone mejor
equipado de hoy. No es sorprendente que parezca mágico para una comunidad de personas
con poca tecnología avanzada, pero ninguno de sus poderes divinos puede prevenir la
inevitable caída de la civilización que la construyó.
Haciendo las cosas más complejas son las categorías subjetivas y las interpretaciones de
aquellos, incluyendo el novelista y el lector, que proporcionan descripciones y evaluaciones. La
descripción clásica del proceso de comunicación, el modelo matemático de Shannon y Weaver
(1949), distingue el emisor del receptor, la fuente de información del destino y la señal del
ruido. Cuando es relativamente fácil identificar cada uno de estos, sobre todo cuando cada
paso en el proceso está mecanizado, el modelo tiene algún sentido. Pero para la mayoría de
las formas de comunicación humana, los términos son mucho más ambiguos de lo que podría
parecer al principio. "Los límites entre el ruido y el sonido son convenciones", declara
Frobisher en la novela de Mitchell, y todas las convenciones pueden y deben ser trascendidas.
Como sabe Nate Silver (2012), uno de los campeones más conocidos de la Big Data, no se
puede simplemente anunciar una distinción entre señal y ruido porque son ambiguos y
relativos a las expectativas subjetivas de aquellos conectados a la red de comunicación. Así
como la física moderna desafía la existencia de un observador independiente que opera fuera
del sistema estudiado, lo que significa que la relatividad es universal, nadie, ni el novelista ni el
analista de datos, reside fuera de la red social de actores humanos. Las fuentes de información
también pueden ser destinos, los transmisores pueden recibir simultáneamente, y lo que es
ruido para algunos es la música dulce o la comunicación efectiva para los demás. Por otra
parte, los escritores y los investigadores son también comunicadores con apuestas en los
objetos bajo sus microscopios particulares.
Por lo menos, el “Atlas de las Nubes” de Mitchell nos recuerda que hay formas legítimas
alternativas de conocer y de comunicar el conocimiento junto con las consagradas en las nubes
de la Big Data a los que se accede a través del positivismo digital. Sin embargo, este último es
cada vez más el desplazamiento de los primeros como los avances en la capacidad
computacional y análisis de datos se aplican a más de lo que solía ser las humanidades y las
ciencias sociales. La difusión de las humanidades digitales, su acceso a la financiación y su
apoyo de los líderes universitarios que necesitan desesperadamente los recursos que gran
cantidad de datos en las humanidades pueden atraer lo hacen más difícil para aquellos que
defienden el tipo de comprensión cualitativa detallada que los estudiosos de las humanidades
desplegado durante siglos.
Ese mismo día me llevó al jardín de la azotea del Met, donde las nubes más artísticas atrajeron
grandes multitudes. Esta vez fue la instalación de Cloud City de Tomás Saraceno, una colección
de grandes módulos conectados construidos con materiales reflectantes y transparentes que
emergen desde el suelo e invitan a observadores a escalar entre ellos.10 La visión de grupos de
nosotros escalando a través de una red de nubes, Reflejando nuestras imágenes muchas veces,
cuando nos levantamos por encima de la ciudad, era hermosa, sobre todo porque estábamos
rodeados por los edificios de la ciudad y por el Central Park, pero también aterrador, porque la
red de personas anidadas en superficies reflectantes y transparentes creó la sensación de Vida
dentro de un dispositivo de procesamiento de información. Pero eso puede haber sido sólo
porque he estado pensando mucho sobre otro tipo de nube.