La ficción cuyo primer capítulo se emitió 20 años atrás refleja las diferentes realidades de un barrio marginal; qué espacio ocupan la estadística y la institucionalidad.
La escena es fuerte. En una secundaria de un barrio difícil de Baltimore, un alumno recibe al nuevo profesor con un insulto. La directora le aplica una pena severa: tres días de suspensión. El joven se retira con una sonrisa sutil: ha logrado su objetivo, volver a las calles, al mundo de las drogas, con el salvoconducto perfecto para que su madre no lo hostigue por faltar a clase.
Sí, hablamos de The Wire, la icónica serie que acaba de cumplir 20 años desde su primera emisión y que la mayoría de los rankings ubica entre las diez mejores de la historia; algunos, incluso, entre los tres primeros puestos, con Los Soprano o Breaking Bad. La escena mencionada toca un nervio particular de los economistas: cuestiones morales aparte, a la larga, lo del alumno se trata de alguien explotando las reglas del sistema. Y si uno dice “incentivos” tres veces, el fantasma de la ciencia de Smith, Ricardo y Marx se da por aludido.
The Wire es una serie de culto, que pasó desapercibida en su momento y que, cual Borges con el Nobel, fue ignorada por los premios aparatosos del mundillo estadounidense del espectáculo, como Better Call Saul, la orgullosa “perdedora” de los últimos Emmy, para furia y beneplácito de sus seguidores.
Magistral por donde se la mire (del casting a los guiones, de la fotografía a la música), The Wire registra la dinámica de los barrios marginales de Baltimore, infestados de drogas, pobreza y violencia, y sus relaciones con las instituciones: la policía, la burocracia, la política, la religión, el sistema educativo, los sindicatos y los medios de comunicación.
Los 15 años transcurridos desde la emisión de su última temporada desataron una suerte de histeria intelectual en relación a la serie: libros, conferencias, notas y presencia permanente en casi todos los ámbitos académicos. Harvard ofrece una asignatura llamada “Desigualdades urbanas y The Wire”, y materias similares son dictadas por prestigiosas casas de estudio, como Maryland o Berkeley. Sus actores principales han seguido una exitosa carrera, como Dominic West, que en The Wire hacía del inefable detective McNulty y ahora representa al príncipe Carlos en la mucho más popular The Crown, o como su inseparable compañero William “Bunk” Moreland, protagonizado por el talentoso Wendell Pierce, que en estos días recibirá un doctorado honoris causa por la hiperselectiva escuela Julliard, donde se formó.
¿Y por qué The Wire caló tan hondo entre economistas y otros científicos sociales? Porque provee una visión descarnada de la complejidad del entramado social. Antes de continuar, vale aclarar que no hay tal cosa como el spoiling con una serie tan monumental como The Wire, en el sentido en que el relato de un cuento de Cortázar no atenta contra la experiencia de su lectura, tal vez lo contrario.
Andrés López, economista, profesor de la UBA y fan temprano de la serie, comenta: “The Wire es un ensayo magistral sobre el papel determinante de las instituciones y lo difícil que es cambiarlas. En todas las temporadas hay personajes que tienen buenas intenciones y que terminan dándose la cabeza contra la pared”.
A modo de ilustración, López remite a la tercera temporada, que gira en torno a un proyecto referido en la serie como “Hamsterdam” (sic). A fines de encausar los efectos colaterales de la compra y venta de drogas, un bien intencionado policía (el entrañable “Bunny” Colvin), a espaldas de sus jefes decide crear un pseudomercado donde, en una zona de casas abandonadas, compradores y vendedores puedan realizar sus intercambios con la venia de la policía.
La idea trae beneficios concretos (una caída en el crimen en los barrios aledaños), pero termina muy mal por la flojísima “institucionalidad” de la propuesta, que se da de bruces con los mecanismos (deseables o no) que la sociedad tiene para sopesar, validar y ejecutar políticas públicas. Nada que nuestros agitados países no experimenten a diario, por la existencia de quienes proponen soluciones imposibles de implementar frente a difíciles problemas sociales.
Como fue el caso de Seinfeld, The Wire se puede utilizar para ilustrar o motivar todas las dimensiones de la economía práctica. Como señala Javier Garcia Cicco, profesor de la Udesa, la tercera temporada es una clase magistral de cómo opera el poder de mercado. La temporada refleja la tensión entre el estilo del viejo líder de los narcos, el violento y recién salido de la cárcel Avon Barksdale, y el de su sucesor, el no menos violento pero pragmático Stringer Bell.
Ausente el primero, Bell apela a la lógica y a la negociación con sus competidores y con la misma policía. Términos como “integración vertical” o “diferenciación de producto” forman parte de su vocabulario, al punto tal que los réditos que le dan estas estrategias lo llevan a estudiar economía en la universidad.
Las estadísticas ocupan un espacio importante en The Wire, pero por las peores razones. La mayoría de los fracasos de política social que la serie trata están guiados por cifras arbitrarias y manipulables.
En forma recurrente, la policía confunde (a propósito, o no) bajar el crimen con bajar las estadísticas del crimen. Atento a esta confusión, en la cuarta temporada, Marlo Stanfield, el temible líder narco, implementa una compleja estrategia para ocultar los cadáveres de sus víctimas, para beneplácito de la policía, que toma como un éxito ver cómo caen las cifras de los asesinatos por drogas.
El sistema educativo no se queda atrás en esta práctica. “Prez” es un detective devenido en profesor de matemática. Idealista, hace todo tipo de esfuerzo para motivar a sus díscolos alumnos, hasta que los directivos le informan que debe abocarse por completo a que los estudiantes pasen las pruebas estandarizadas tan comunes y polémicas del sistema norteamericano.
Desilusionado, Prez recurre a una experimentada maestra en busca de un consejo, que le dice: “Es muy fácil, no les enseñas matemática, les enseñas la prueba”. María Laura Alzúa, economista y fundadora del innovador Colegio Galileo, de La Plata, acota que, si bien The Wire refleja la situación del sistema norteamericano, muchos de los problemas que se muestran allí aparecen repetidamente en países de ingresos medios, como la Argentina.
En un recordado episodio, el detective McNulty revisa el departamento del recientemente abatido Stringer Bell y se sorprende por la decoración, más propia de la vivienda de un intelectual que de la de un narco. Saca un libro de la nutrida biblioteca y dice, desconcertado: “¿A quién carajo estuve persiguiendo?”, mientras la cámara enfoca su mano, que sostiene una copia de La Riqueza de las Naciones, de Adam Smith, en una espeluznante escena de economía explícita.
Jamás la televisión estuvo tan cerca de la cuestión social y de forma tan elocuente como con The Wire, que, para bien o para mal, no ha perdido un milímetro de relevancia.
Arículo disponible en La Nación.
“Culo”, buscó en el diccionario Sopena ni bien sus padres se lo regalaron cuando era un niño. Ya de grande, en los tempranos 90, lo primero que escribió en el Mosaic, el icónico browser que aceitó la revolución de internet, fue “Pamela Anderson”. Y, por cuestiones que debería hablar con su analista, la semana pasada debutó en el ChatGPT poniendo su nombre y apellido.
ChatGPT es un bot de inteligencia artificial que, como toda tecnología disruptiva, agrieta al público. Los escépticos dicen que es Google con esteroides, un “loro aleatorio”, como socarronamente dijo la experta en lingüística computacional Emily Bender, en un provocador artículo. Los entusiastas hablan de un cambio radical en la forma en la que interactuaremos con la realidad. “Me siento como en 1993, cuando entré por primera vez a internet”, dice Gustavo Ventura, el prestigioso economista argentino, profesor en la Universidad del Estado de Arizona. “ChatGPT es una herramienta desarrollada para imitar la capacidad comunicativa de los humanos. Su prioridad no es ser un sabelotodo, sino, más bien, construir oraciones, párrafos y textos como si fuera un humano. Y eso lo hace muy bien”, opina Fredi Vivas, autor del recomendable libro Como piensan las máquinas.
¿Y qué promete ChatGPT para los economistas? Hace unos días, Anton Korinek, de la Universidad de Virginia, se propuso una noble tarea, entre ciclópea y quijotesca, prematuramente condenada a una obsolescencia inmediata. Escribió un artículo –que batió récords de accesos en el sitio del National Bureau of Economic Research–, en el cual describe 25 actividades de la investigación y la enseñanza de la economía que tienen grandes chances de ser beneficiadas por el uso de ChatGPT.
Señala Korinek que lo primero que llama la atención de ChatGPT es la coexistencia de errores garrafales con aciertos asombrosos. Por ejemplo, inquirido acerca del autor de esta nota, el ChatGPT dice, alternativamente, que fue ministro de Economía, empleado de Oracle o de IBM, autor de libros inexistentes, ganador del Premio Nacional de Literatura, o que nació tres años antes de la fecha correcta, entre otras “alucinaciones”, término que se usa en la jerga para denotar estos dislates. Por otro lado, ante la instrucción “escribí una carta dirigida al decano de la facultad de ciencias económicas apoyando la designación de Juan Gómez como profesor emérito”, ChatGPT produce una nota profesional, que puede ser enviada casi sin la revisión de un humano.
Pero lo que sorprende de las primeras experiencias con ChatGPT no es tanto esta convivencia de yerros y aciertos, sino lo rápido que uno mismo aprende acerca de dóonde están las ventajas y las desventajas. “Está mal, pero no esta tan mal”, diría el popular conductor Guido Kaczka, sobre estas interacciones iniciáticas con el bot.
En esta línea, Korinek sugiere que el ChatGPT es particularmente útil en “microtareas”, como reformatear datos, generar gráficos y tablas, y producir, resumir o corregir textos simples. Es decir, tareas con las que el ChatGPT se siente cómodo y en las que es fácil detectar sus errores e interactuar con él para remediarlas. ChatGPT puede escribir código computacional sencillo (“escribime un programa en Python que genere 20 números de la sucesión de Fibonacci y mostrame los resultados en un gráfico”), es capaz de resumir textos, proponer tuits inteligentes que reflejen el contenido de un artículo y sugerir títulos ocurrentes para una nota.
En términos de investigación, Korinek señala que ChatGPT es muy útil en la etapa de generar ideas disparadoras (“sugerime diez razones por las cuales se debería esperar que la inteligencia artificial aumente la desigualdad”). O responder dudas técnicas. “ChatGPT me acaba de solucionar una duda de LaTeX que no pude resolver googleando. Definitivamente estamos ante un game changer”, dijo el economista Martín Trombetta en las redes sociales.
Entre las limitaciones, Korinek sugiere que ChatGPT es malo (cuando no peligroso) para buscar literatura preexistente, en donde la tendencia a “alucinar” (cuando no a inventar trabajos inexistentes en la literatura) es inaceptable.
Korinek propone una taxonomía de tareas en donde ChatGPT puede tener un impacto considerable en la investigación: generación de ideas, escritura, investigación previa, programación, análisis de datos y manipulación matemática.
Según Korinek, ChatGPT funciona muy bien en la escritura de base (corregir, resumir y editar textos, generar títulos o tuits, etcétera), en disparar ideas, extraer datos de textos, reformatear información y hacer análisis cuantitativos simples. Todavía se encuentra en una etapa experimental en cuanto a evaluar ideas, explicar conceptos o código computacional, clasificar texto o construir modelos simples. Y, por último, funciona aún muy mal para buscar literatura relevante, manejar deducciones matemáticas o explicar modelos, aun los más simples.
ChatGPT puede revolucionar la práctica docente en economía. Los exámenes del tipo “composición tema la vaca” recibirán una merecida estocada final con esta tecnología. Resulta interesante observar la reacción de ChatGPT ante exámenes técnicos, que involucran alguna manipulación matemática, como los que abundan en la disciplina. En un experimento implementado para esta nota, ante un ejercicio de esta naturaleza, ChatGPT arranca bien, comete algunos deslices algebraicos y llega a una conclusión razonable. “Ah, ¡como cualquier alumno decente!”, acotó un colega.
De manera interesante, ChatGPT es cauto y ecuánime cuando es puesto a opinar sobre política económica. Inquirido acerca de cómo terminar con la inflación en la Argentina, propone medidas que excitarían y espantarían a Javier Milei y a Sergio Massa por igual (desde eliminar el déficit fiscal hasta controlar precios, pasando por dolarizar o establecer un sistema de metas de inflación). Es importante aclarar que, en sus versiones actuales, ChatGPT no accede a internet, sino que se alimenta de una monumental base de datos disponible hasta 2021, para beneplácito de los simpatizantes franceses, que todavía sienten cierto alivio cuando buscan “quién es el actual campeón del mundo”. O, seriamente, complica el análisis geopolítico en relación a los eventos de Rusia y Ucrania.
Korinek concluye que los economistas deberían adoptar una actitud “Ricardiana”, en el sentido de confiarle a ChatGPT aquello para lo que tiene ventaja comparativa: la generación de contenidos. Y, en forma acorde, dejar a los humanos las tareas de evaluarlos.
Y, ahora, es el momento de sacarnos la careta. ¿Qué porcentaje de esta nota fue escrita por ChatGPT? Como diría Bob Dylan, preferimos que la respuesta quede soplando en el viento. O, tal vez, el lector debería llevarle esta preocupación al mismísimo ChatGPT. Y, de paso, preguntarle si, en relación a estas cuestiones no es cierto que lo de “Ricardiana” del párrafo anterior remite tanto a David como a Fort.
“Buenos Aires, tierra hermosa, Nueva York, grandioso pago, casas más, casas menos, igualito a mi Santiago”, cantaban los entrañables Hermanos Ábalos, tal vez añorando su tierra natal desde la ventana de uno de los aviones que los llevaron de gira tras la explosión del folklore, a mitad del siglo pasado.
Sesenta años después y desde la pantalla de su computadora, Eugenia Giraudy posiblemente disienta, toda vez que las detalladas imágenes satelitales a las que tiene acceso le permiten distinguir, con detalle pasmoso, si por una imagen de una superficie de 30 metros de lado pasa un caño o un edificio o si, como en estudios similares, se trata de los techos prolijos de un coqueto country o de los más anárquicos de un barrio marginal; en Bolivia, en las afueras de Madrid, en el desierto del Sahara y, obviamente, en Santiago del Estero. Imágenes que, apropiadamente usadas, permiten monitorear cuestiones humanitarias delicadísimas, como el acceso al agua y como lo implementa el proyecto “Data for Good”, de Facebook, en el que trabaja Giraudy.
Píxeles, clics, bosques aleatorios, falsos positivos, time dynamic warping (deformación dinámica del tiempo), matrices de similitud son términos que cualquier lego asocia a la jerga densa de la tecnología de frontera o a la medicina de avanzada. Así, un incauto que por error se asomó a la conferencia Big Data y Política Pública, organizada por la UdeSA hace pocos días, casi se queda helado de escuchar estas palabras mezcladas con la terminología clásica de la política pública, como inflación, fake news, pobreza, violencia infantil o polarización del electorado. La imagen de la empleada pública de Antonio Gasalla (esa qué gritaba ¡atrás! ¡atrás!) contrasta con el creciente uso de algoritmos y métodos digitales en el análisis del Estado y la política social.
El sociólogo Germán Rosati es un claro representante de esta generación de “científicos sociales 2.0″ y coordina la Diplomatura en Ciencias Sociales Computacionales y Humanidades Digitales de la Universidad Nacional de San Martín. En la conferencia organizada por UdeSA, Rosati presentó resultados de una investigación en la cual, sobre la base del análisis de imágenes satelitales, estudió la dinámica del uso del suelo en la Argentina, algo que permite medir, entre otras cosas, el preocupante problema de la deforestación, con precisión similar a la de métodos tradicionales y disponibilidad casi instantánea.
Una característica saliente de este “ecosistema” de nuevos científicos sociales es que resulta imposible encasillarlos sobre la base de las carreras universitarias que estudiaron. Rosati es sociólogo de formación, pero en sus formas opera como un profesional de la computación o la estadística, y sus temas de interés lo acercan a la agronomía o la geografía.
En esa línea, Ernesto Calvo, el prestigioso científico social argentino, actualmente en la Universidad de Maryland y que también expuso en la conferencia, tiene diploma de grado en ciencia política, pero en sus investigaciones sobre la dinámica de twitter usa métodos computacionales de frontera y técnicas de “análisis de supervivencia” idénticas a las que apela la medicina.
Eugenia Mitchelstein también tiene formación en ciencia política, pero en sus estudios sobre el impacto de las fake news apela a la lógica experimental que usaría un agrónomo para probar la efectividad de un fertilizante. La caracterización de la actividad de las personas por su título universitario parece ser una práctica muy de “siglo XX”, donde qué es lo que alguien hace y, fundamentalmente, cómo lo hace, provee una descripción mucho más fidedigna de sus tareas y habilidades.
¿Es la inteligencia artificial el fin de la ciencia social tradicional? ¿Big data reemplazará a las encuestas? En el ámbito de la política social, ¿lo cuantitativo se devorará a lo cualitativo? Los trabajos presentados en esta conferencia de frontera sugieren, contraintuitivamente, que no. Si hubo un elemento común a las exposiciones es la presencia de algún tipo de encuesta estructurada, o entrevista cualitativa, que sirve como “piedra de Roseta”, para tantear que los resultados surgidos de un algoritmo aplicado a datos masivos dan resultados similares a los de una encuesta pequeña y bien implementada. La economista Victoria Anauati discutió métodos recientes para medir la pobreza sobre la base de la intensidad del uso de teléfonos celulares.
La forma de “entrenar” a estos algoritmos es apelar a una encuesta en la cual se observa tanto el bienestar personal como la intensidad del uso de celulares. Estas pequeñas encuestas funcionan como un “laboratorio” para probar la eficacia de los métodos e implementarlos.
En línea similar, el profesor de la Universidad de Harvard Alberto Cavallo, reconocido experto en la medición de precios usando datos online, contó que el proceso de validación de sus métodos computacionales demanda un largo período de interacción con usuarios y actores de la política, que a su vez retroalimenta la construcción de nuevos algoritmos. El enfoque estadístico-experimental presentado por Mitchelstein para el estudio de fake news es complementado por detalladas entrevistas cualitativas, que aportan información valiosa para chequear o cuestionar los resultados cuantitativos. Lo mismo ocurrió con el trabajo presentado por Victoria Ubiña, referido a la detención temprana de violencia infantil, en el cual, además de apelar a los más recientes métodos de machine learning tuvo que interactuar tanto con las familias afectadas como con los funcionarios de las oficinas públicas qué gestionan está delicada cuestión.
Otro tema que atraviesa la adopción de tecnologías digitales en el ámbito de lo público es que este tiene a menudo objetivos múltiples y, de manera esperada, contradictorios. La lentitud en la adopción de métodos de frontera no obedece a los costados negativos de la burocracia, sino a una cautela propia de la complejidad en la cual opera el entramado de la política pública.
Como ejemplo, la comparabilidad (temporal y regional) y la transparencia en la medición de la pobreza demandan métodos claros y estables, para que las comparaciones sean de “manzanas con manzanas”, lo cual se da de patadas con la esencia de la inteligencia artificial o el machine learning que, en pos de la eficiencia y el aprendizaje adaptativo, suele llevar a que las mejoras sucesivas de un modelo tornen a sus resultados incomparables con los del pasado o con los de otras regiones. No se trata de adoptar una visión ludita (la de los que rompían las máquinas de la revolución industrial) de la tecnología en el Estado, sino de entender que, en lo público, la eficiencia es un valor tan deseable como la transparencia o la comparabilidad.
“Tu sombra de mistol he’i buscar” cantaban los Ábalos en Nostalgias Santiagueñas, posiblemente a caballo y no en Google Earth, donde, para bien y para mal, estarían al alcance de cualquier algoritmo que no añoraría nada que no sea obedecer a quien lo programó.
Artículo disponible en el portal La Nacion.
En 1961 el genial humorista Landrú publicó en la revista Tía Vicenta un desopilante “test para saber si usted es hombre o caballo”, que tras unas breves preguntas (por ejemplo, “¿Qué prefiere comer, una suprema a la Maryland o una bolsa de alfalfa?” o “¿Qué hace cuando entra en su oficina: dice buenos días o relincha?”), permitía resolver la cuestión en forma inequívoca. Se trataba de una tomada de pelo a la proliferación de tests de la época, en particular en las así llamadas “revistas del corazón” (“Diez preguntas para saber si le gustás”).
Sesenta años después, los cuestionarios de los que se mofaba Landrú han sido reemplazados por big data y algoritmos, que parecen tener la respuesta a todo. Así, en el “top 20” de preguntas que la gente le hace a Google conviven cuestiones filosóficas (“qué es el amor”) con otras no tanto (“cómo hacer un nudo de corbata”).
Sin embargo, llama la atención que varias cuestiones delicadas permanezcan todavía ajenas a los datos masivos y a los algoritmos. Una de ellas es la medición de la pobreza. Esta cuestión es el equivalente estadístico de querer envolver un triciclo. Los problemas empiezan con la mismísima indefinición de qué significa ser pobre, noción multidimensional y que involucra a disciplinas que van desde la economía a la biología, pasando por la antropología, la sociología, la política y la medicina, entre otras. Resuelta la cuestión de qué es la pobreza, resta lidiar con una tal vez más compleja: cómo medirla.
La solución comúnmente adoptada es el enfoque de líneas: pobre es una persona cuyos ingresos no alcanzan para comprar un conjunto de cosas que se consideran necesarias para no serlo. El valor de esta canasta de bienes y servicios es la línea de pobreza. Entonces, la aplicación del método requiere de encuestas periódicas que midan los ingresos de las personas y los precios de la canasta.
Claramente, se trata de una simplificación que se adopta por razones de conveniencia práctica. Nadie cree que los ingresos representen cabalmente el bienestar, ni que la línea de pobreza pueda dividir tan tajantemente a los pobres del resto. La popularidad del enfoque de líneas se debe a la facilidad que ofrece para computar y comunicar datos, y a que conduce a comparaciones válidas entre países o períodos. Y, además, a que las alternativas más conceptualmente apropiadas son notoriamente más costosas. Así y todo, su implementación demanda un enorme esfuerzo institucional de encuestas sistemáticas de ingresos y precios, razón por la cual las cifras oficiales de pobreza están disponibles solo dos veces por año y para ciertas áreas urbanas. Ante estas enormes dificultades cabe preguntarse si no será hora de confiar esta tarea a big data y sus algoritmos mágicos, que parece que todo lo pueden.
Si bien hay una considerable cantidad de estudios, son todavía muy incipientes. Joshua Blumenstock, de la Universidad de California en Berkeley, es tal vez el principal experto en estudiar la pobreza con tecnologías intensivas en datos. En 2015 publicó un influyente estudio en la revista Science, donde muestra que es posible monitorear la pobreza en Ruanda sobre la base de la intensidad de uso de teléfonos celulares. Algunas experiencias más recientes apelan a imágenes satelitales, como el estudio de Neil Jean (un joven estudiante de la Universidad de Stanford), también publicado en Science, o a la geolocalización de artículos de Wikipedia en África subsahariana, como en el reciente trabajo de Evan Sheenan y sus coautores, también de Stanford.
Además de datos de fuentes “alternativas” como imágenes satelitales, redes sociales o sensores, todos estos estudios usan métodos modernos de la ciencia de datos, como deep learning, árboles decisorios y técnicas de procesamiento de lenguaje natural, que se han incorporado al herramental de la ciencia social y que muy lentamente aparecen en las currículas de disciplinas como la economía, la sociología o la ciencia política.
En la Argentina hay varias experiencias de uso de datos masivos para el estudio de la pobreza. El sociólogo Germán Rosati, investigador del Conicet y de la Universidad Nacional de San Martín, es un claro ejemplo de esta nueva generación de científicos sociales. En un trabajo reciente, Rosati usa métodos de machine learning para predecir datos faltantes en la Encuesta Permanente de Hogares. Y en un estudio junto a Tomás Olego y Antonio Vázquez Brust, construye un mapa de vulnerabilidad sanitaria que combina datos tradicionales con registros administrativos de hospitales a lo que agregan datos “chupados” de la web de programas sanitarios y gobiernos locales.
Otros estudios locales son los que se usan para predecir la pobreza, como el de Bruno Cardinale, Christian Chagalj y Noelia Romero, de la Universidad de San Andrés, o los que publica en las redes sociales Martín González Rozada, de la Universidad Torcuato Di Tella. Un reciente estudio de Wendy Brau, Victoria Anauati y el autor de esta nota discute con detalle todas estas contribuciones.
Son varias las ventajas de big data en relación a la medición de la pobreza. La disponibilidad de datos inmediatos y de fuentes alternativas permitiría una medición más “granular” de esta cuestión, todavía limitada a grandes aglomerados urbanos. Las áreas rurales o las zonas altamente vulnerables todavía escapan al “foco” de la medición tradicional. También permitiría aumentar la frecuencia de las mediciones, si bien es discutible si esto es deseable, dada la naturaleza estructural de la pobreza. Concretamente, aun cuando sea técnicamente factible, es posible que una medición semanal o mensual de la pobreza venga acompañada de una considerable dosis de “ruido”, en el sentido en que a un paciente sano se le recomienda que no se mida la presión arterial cada media hora, sino en intervalos más espaciados.
Tal vez la principal contribución de big data se relacione con la posibilidad de medir la vulnerabilidad más allá del ingreso y a costos razonables, dejando atrás las principales razones pragmáticas por las que se insiste con el enfoque de líneas. Big data permite monitorear aspectos cruciales del bienestar como los vínculos sociales, el acceso a los servicios de salud, educación o seguridad, o la dinámica del mercado laboral, muchas veces esquivos a las encuestas tradicionales.
A la luz del enorme potencial de big data en la medición de la pobreza, la lentitud en la adopción masiva de estas ideas se explica no por dejadez ni por pereza burocrática, sino porque las dificultades son de magnitud idéntica a las ventajas. La estadística oficial no es un mero ejercicio algorítmico sino un acuerdo conceptual, político y comunicacional. A la falta de consenso acerca de qué significa ser pobre, la estadística oficial responde con una o varias medidas que surgen de sopesar las ventajas y desventajas de distintos métodos, a fin de que existan herramientas estables que permitan medir la evolución del fenómeno y, fundamentalmente, comparar la pobreza en distintas regiones y periodos. Es una tarea que requiere una esperable estabilidad conceptual y algorítmica, para evitar caer en confrontar peras con manzanas. Es solo cuestión de imaginar el escándalo mediático que ocurriría con la comparación de las cifras de pobreza si los datos, más que venir de encuestas sistemáticas, se originaran en información online de empresas que aparecen y desaparecen, o en redes sociales que súbitamente dejan de existir o pasan de moda.
Angus Deaton, premio Nobel de economía en 2015, dijo que “las líneas de pobreza son construcciones tan políticas cómo científicas”. La principal limitante en la adopción de big data para medir la pobreza no son ni los datos ni los algoritmos, sino la creación de consensos para su uso confiable. Porque más allá de sus propiedades técnicas, no hay peor estadística que aquella en la que nadie cree.