Aurelia Di Berardino es una doctora en filosofía, miembro de la Facultad de Humanidades de la UNLP, que desde hace tiempo indaga sobre inteligencia artificial y cultura digital. En esta entrevista plantea una mirada crítica y un futuro no del todo optimista sobre el auge de la IA Generativa, los recursos -humanos y naturales- que demandan y la concentración de poder que se da a escala global en manos de “cinco o seis multimillonarios” que controlan el mercado.
La entrevista surgió hace algunas semanas en ocasión del conversatorio “Quién habla cuando habla la Inteligencia Artificial” que organizó la FaHCE a fines de octubre.
¿Por qué están haciendo esta pregunta? Es un poco rara, ¿hay algo más atrás de esto? ¿No son sólo unos robots que están amenazando con extinguir a la raza humana?
La pregunta es bien gancho, es una pregunta que se hizo Milagros Miceli (Nota: la socióloga argentina elegida por la revista Time como una de las 100 personas más influyentes en la conversación global sobre IA). Por lo general pensamos que las IA son estos robots, pero el punto es que para sostener esas máquinas, para sostener esos algoritmos, lo que tenemos son personas, distribuidas en los lugares más pobres del mundo, haciendo trabajos que tienen que ver con o bien el etiquetado o con la carga, son trabajos muy complejos.
Es un trabajo de filtrado, porque hay que entrenar a las IA con eso, el etiquetado para que reconozca a un vaso como tal, que reconozca colores, por ejemplo colores de piel, para identificar si un contenido es apto o no.
Para ver si entiendo: no sería posible que las IA hagan lo que hacen sin mentes humanas detrás… Es finalmente una máquina de sangre.
Exacto. Incluso antes de la pandemia se sabía que en ese momento se estaba haciendo ese trabajo y que quienes hacían la carga de datos y que observaban esas situaciones un poco más escabrosas y más complejas eran, por lo general, mujeres precarizadas, mamás solteras de la India cuya manera de subsistir era pasar 15 horas a cambio de muy pocas monedas, expuestas a mirar contenido de la web profunda, de eso que no sale en los buscadores, con situaciones muy explícitas para poder etiquetar, es decir poner en cajitas que después va a buscar el algoritmo cuando tiene que hacer un reconocimiento de rostros, de sucesos, etcétera.
También generan preocupación los recursos que consumen para refrigerar o incluso las pujas geopolíticas en pos de acaparar los recursos para fabricar los semiconductores, para los chips que que son la base de esta cuarta revolución industrial. Deuda, guerra, el tesoro norteamericano interviniendo sobre el peso. Lo dejo a tu criterio (risas).

Por eso digo, hay toda una economía y una geopolítica detrás de las inteligencias artificiales que, claro, hay que tomarse un momento para entrar y después alejarnos un poco porque están acá. Justamente por eso tiene sentido que la Facultad de Humanidades y distintas áreas de las humanidades y de las ciencias sociales se involucren. Porque en parte toda esta cuestión de pensar a las inteligencias artificiales como meros mecanismos y meros algoritmos que están en cosas que parecen etéreas como la nube tiene que ser cuestionado por las ciencias sociales, que tienen que responder a todo este trasfondo que estamos reponiendo y preguntar qué pasa con los recursos, qué pasa con la precarización laboral.
Este boom de los chatbots redita un debate que está siempre presente cuando hay transformaciones tecnológicas. ¿Cómo te percibís hoy, team apocalípticos o team integrados?
Por lo general cuando trabajo, sobre todo en los seminarios o con mis estudiantes, les digo, “puede ser que un lunes, que es cuando me toca dar clase, venga muy apocalíptica, otro día vengo más integrada”. Digamos que tengo una suerte de relación de amor odio con eso. No deja de ser una tecnología y hay tecnología desde que hay humanidad, y nuestro uso de las tecnologías siempre fue conflictivo. En ese sentido la IA no viene a ser un salto cualitativo en relación a esta cosa ambigua que tenemos con las tecnologías, con los libros también. Cuando empezó la escritura, yo que vengo de la filosofía, Platón se negaba a escribir libros. Por algo salen los diálogos platónicos, ¿no? Por eso en ese sentido yo podría decirte que no es que estamos cualitativamente en un punto distinto al que estábamos con cualquier otra tecnología. Ahora, estrictamente hablando no parece ser una herramienta.
¿Por qué no?
Y es lo que dice Yuval Noaḥ Harari, que es como la versión en parte apocalíptica, una primera mirada apocalíptica, que en parte de la IA es un agente. Tiene agencialidad. Siguiendo el caso de que estuviéramos hablando de una herramienta como si fuera una masa o un arco y flecha para matar un mamut, ¿no? Siempre la direccionalidad, la agencia, la tiene la persona. Vos decís dónde golpear, cómo golpear. Pero la IA, por la forma en que está entrenada, y con esto hay que tener mucho cuidado, puede tomar decisiones.
Cuando decimos esto hay que poner muchas comillas, porque si no la estaríamos antropomorfizando. Podría eventualmente, una vez que vos la entrenás, tomar una ruta, un camino, dar una respuesta que tiene toda la apariencia de ser autónoma y no es exactamente la respuesta para la que estarías entrenándola.
De hecho lo hace.
Lo hace, todo el tiempo, porque elige por estadística. Además, pensá una cosa: es como tener una supermáquina de calcular, millones y millones de cabecitas con información. Claramente no podemos contra eso. Tiene tantos datos y yo solo tengo tres, porque mi cabeza me permite tener tres, y nos pone en crisis con nuestro cerebrito frente a ese cómputo, frente a esa máquina de computar, y claramente empezás a decir, “Che, ¿pero no no estaré equivocada yo?”. Esa es cosas de las que deberíamos tener un poquito de distancia, que no quiere decir vayamos a quemar máquinas, sino un poco de distancia y un uso crítico, un uso vigilado.
Me decías los lunes apocalíptica, por ahí los miércoles un poco más integrada. ¿Qué herramientas usás? ¿Te puedo preguntar? De inteligencia artificial en general.
Por lo general, cuando entro a un chat, que a veces uso cualquier prueba gratuita, aplico una regla básica de cualquier docente: no voy a decir algo que yo no lo he leído, por ejemplo, ¿no? Necesito explorar y ver cómo funciona para después entender.
Claro, si no te me moves de la esfera del prejuicio, que es lo peor que puedes hacer.
No, y no es la idea, ¿no? Sino de decir, “bueno, a ver, si esto está instalado, no sé en todo caso si es cierto que llegó para quedarse definitivamente, no solo los chats, sino el montón de cosas que nos habitan y que tienen tecnología algorítmica, ¿no? Eh, bueno, mejor que sepamos de qué va”.
Entonces, por lo general, hago pruebas y un poco el chiste es ver qué fuente me devuelve. Y sobre todo qué procesos tan diferentes a los míos parece que está haciendo y que a mí me ponen en alerta para seguir indagando. Otra vez, no para el prejuicio rápido, porque de ahí hay que salir rápidamente: del enamoramiento y del prejuicio.
Lo usas como laboratorio, la estás midiendo todo el tiempo, la estás poniendo a prueba.
Me divierto mucho con eso.
¿Y qué procesos hace, distintos o parecidos a los tuyos?
Distintos. Una de las cosas que pruebo es pedirle resúmenes de textos que yo he leído y ver qué es lo que lo hago con este espíritu de explicar. O sea, mi rol docente no se me va nunca. Yo puedo investigar un montón de cuestiones, pero lo que después termina interesándome es cómo construyen un proceso de pensamiento crítico.
Y, claro, cuando te devuelve un resumen, sobre todo cuando menos intervenís, cuando le pedís con un prompt muy simple, porque tampoco tengo ganas de andar entrenando gratuitamente al monstruito, por lo general lo que me devuelve no es ni parecido a lo que yo leí. Todo el proceso de haber pasado por una lectura, de haberte enojado con el texto porque no le entendiste a la primera, tampoco a la segunda, lo tuviste que dejar, tuviste que ir a una fuente secundaria para entender si la referencia te llevaba no sé dónde y esa referencia te llevó a otro lado y a otro lado, y a otro, todos esos procesos son los que en principio son las maneras en que nosotros nos reconocemos conociendo, eso no pasa.
Está bien que siga siendo artificial en ese punto, que esta idea de que puede hackear el lenguaje humano y poner en jaque a la humanidad, que es lo que plantea Harari, no lo ves tan cercano.
Hoy evolucionan rápido y si las seguimos alimentando tal vez las aceleramos. Pero ¿sabes por dónde la veo yo? Donde nos rendimos. Para mí hay como este juego que te decía, “hay que salir rápido del enamoramiento y del prejuicio”. Para mí el problema del hackeo no es tanto porque logre emular muy bien lo que hacemos, sino porque tomemos la decisión no decidida de dejar que la máquina haga todo. Entonces, ahí ya está.
El problema es si las vamos a entrenar y cómo va a afectar a las generaciones nuevas.
A ver si entiendo: al problema lo va a tener la generación que sea “nativa IA”, que no va a encontrar la diferencia con la experiencia humana. El peligro es que nuestros hijos terminen siendo los esclavos de la inteligencia artificial.
Es como yo te dijera, “no es lo mismo alguien que se entrena jugando a la Play que tener potrero”. Si te pasas todo el tiempo frente a una pantalla, hay algo que te perdiste indefectiblemente.
Dentro del team apocalípticos está el caso Harari, como lo más extremo -habla de la extinción de la raza humana, ¿no?- y del otro lado está la preocupación por lo que los dueños de los robots van a provocar como una búsqueda, y no como un resultado no deseado, el apocalipsis por otros medios. ¿Cuál de las dos versiones del Apocalipsis te preocupa más?
La segunda tiene varias cuestiones. Una es que cuando vos decís, “bueno, ¿Cuántos son? ¿Cuántos empresarios son? Cuatro, cinco, son seis personas”. Lo que estamos diciendo y que también es un fenómeno político enorme es que esto avanza sobre el fin de lo que llamamos los Estados Nación. O sea, esto que para un filósofo italiano de la informática, que es Luciano Floridi, se llama hiperhistoria, un momento que coincide con la cuarta revolución industrial. Bueno, no tenés Estado nación porque si a vos el que te está dictando la pauta de cómo vivir, cómo pensar, son esos seis o siete popes, ¿qué puede hacer el Estado Nación?
Entonces, sin ponerle una carga valorativa, sin decir “qué lindo nos fue con los Estado Nación” porque, bueno, tienem problemitas también, podríamos pensar que ahí tomamos alguna decisión soberana. Pero anda a decirle a Altman, que está construyendo en Texas un HUB y lleva gastado 60 billones de dólares, decile a ese tipo que no te domine el mundo. De hecho ya están tomando decisiones por encima de las gobernanzas habituales, y más en este contexto donde todo el mundo parecería que va en contra del Estado. Esperemos, porque acá hay algo funcional a algunos poderes que son fácticos y que se están llevando puestos muchos modelos de decisionales que podían ser malos o peores, pero eran decisionales a fin de cuentas.
¿Y cómo te imaginas que termina esto? Yo sé que es imposible de saber pero con las horas que le estás dedicando es imposible que no te lo hayas preguntado y respondido de alguna manera.
Tengo mucha más tendencia pesimista que optimista. Creo que en parte hemos llegado bastante tarde a esta discusión, ya estaba todo cerrado. En los 90 ya había carga de datos, el reconocimiento de rostros por ejemplo. Y el origen de esos datos primerísimos no son cualesquiera, son los rostros de los prontuarios de la policía de Los Ángeles. Hay teorías de la criminalística que tienen que ver con la vieja idea de portación de rostro, y ya están en las IA. Y tiene categorías muy abajo, muy fundamentales, que son muy difíciles de escarbar porque es una caja negra, no está abierto al público, no podés andar sacando cositas, interviniendo sobre las programaciones. Incluso buena parte de los acontecimientos o de las derechizaciones sociales también tienen que ver con el uso de algoritmos que están previamente laboratorizados.
Entonces te sentís el conejito de Indias de seis personitas que tienen el poder mundial, por lo menos económico. No tenemos que entrar en una cadena un poco loca, apocalíptica por demás, pero sí estar todo el tiempo con una suerte de… me molesta la palabra vigilancia, pero sí con una cautela. A la inteligencia artificial le pusieron “inteligencia”. Es un abuso, todo el mundo está abusando de las palabras.
¿Cómo le pondrías vos?
No sé, pero inteligencia no. Porque eso no contamina.
Vos decís que inteligencia tendría que estar reservada para humanidad o seres biológicos.
Ponele. Porque ya cuando vos le pusiste la etiqueta inteligencia, empezás a ponerla a tu nivel. ¿No? Hicimos un camino enorme para evitar, entre otras cosas, el maltrato animal, pensando que estos pobres animalitos no son cosas distintas a nosotros. Ahora fíjate que de un momento a otro le dimos categoría de inteligente a cosas, a un algoritmo. Hay una incoherencia. Si le decimos inteligente, después pensamos que estamos con una persona, que es lo que está pasando y después no reconocemos a nuestros pares como personas. Los niveles de crueldad que estamos manejando y tolerando como sociedad, entre nosotros, es terrible y después le decimos, “gracias por responder una pregunta” a un chat.
¿Tenés alguna mirada sobre la necesidad de legislar, de regular las Inteligencias Artificiales?
Hay un poco de todo. Me parece que una legislación interesante sobre eso, me cuesta imaginarla, porque en realidad hay mucho interés privado, ¿qué de todo eso se puede regular? ¿Cuán efectiva es la regulación de eso?
Estás viendo los impedimentos prácticos, pero ¿sería deseable meterle algún tipo de regulación?
No logro imaginarme exactamente cuáles serían los bordes o circunscribir exactamente cómo sería esa regulación. Sí estaría interesante tener algunos acuerdos mínimos, o unas pautas mínimas de qué queremos proteger. Y, por ejemplo, entender que esto no va a tener que ver con no aumentar o quedarnos afuera de alguna carrera acelerada sobre una brecha. La brecha ya existe, nosotros no tenemos la capacidad.

