Poetas, actores y filósofos: quiénes están enseñándole a la IA a ser más humana

0
2

Si durante un tiempo el desarrollo de la inteligencia artificial estuvo guiado por una lógica eminentemente técnica (más datos, más capacidad de cómputo y mejores algoritmos), a medida que estos sistemas comenzaron a interactuar de forma masiva con personas, esa lógica empezó a mostrar sus límites. No alcanza con que una máquina responda “correctamente”; la próxima frontera es que entienda matices, reconozca emociones y, en algunos casos, incluso tome decisiones que resulten razonables desde el punto de vista humano.

Ya en los primeros años de expansión de los modelos generativos, hacia 2023, se comenzó a trabajar en un tipo de entrenamiento específico sobre el estilo, la sensibilidad y el lenguaje de los modelos. En ese momento, la publicación Rest of The World consignaba cómo algunas de las principales empresas del ecosistema (como Scale AI y Appen), comenzaron a contratar poetas, narradores y especialistas en humanidades para producir textos originales destinados a entrenar a la IA. No se trataba solo de mejorar la calidad de las respuestas, sino de lograr que esos sistemas pudieran moverse con naturalidad en terrenos donde el lenguaje tiene una función expresiva además de funcional.

Adicionalmente está la cuestión idiomática. El problema no es menor, dado que gran parte de los datos con los que se entrenan estos modelos provienen de Internet, un universo profundamente dominado por el inglés. Eso no solo condiciona el idioma, sino también las formas culturales del lenguaje: sus estructuras, sus referencias, y hasta su “musicalidad”. Para expandir las capacidades de la IA más allá de ese sesgo, la publicación explicaba cómo las compañías empezaron a buscar escritores en hindi, japonés y otros idiomas menos representados, capaces de aportar matices que no estaban presentes en los datasets tradicionales.

El desafío de la expresión humana

Conforme los sistemas con IA avanzan y también se masifican, el cruce entre la sofisticación tecnológica y la intervención humana alcanza nuevas etapas y nuevos desafíos en términos de entrenamiento. De repente, ni los datos ni el lenguaje son suficientes; hace falta interpretación emocional y expresión.

En esa línea, algunas de las principales compañías del ecosistema están empezando a trabajar con actores de improvisación, comediantes y performers para entrenar modelos en terreno de emociones y expresión. De acuerdo con lo que cuenta The Verge, a través de empresas intermediarias como Handshake AI -que provee datos de entrenamiento a firmas como OpenAI- se están lanzando convocatorias para perfiles con habilidades expresivas, capaces de reconocer, interpretar y transitar distintas emociones de forma creíble.

La dinámica es en sí misma experimental, dado que se trata de sesiones de improvisación por videollamada, donde los participantes reciben consignas abiertas y construyen escenas en tiempo real. Esas interacciones -espontáneas, ambiguas y llenas de matices- se convierten en material de entrenamiento para modelos que buscan mejorar su capacidad de interpretar tono, intención y emoción en las conversaciones humanas.

El auge de este tipo de búsquedas no es casual. A medida que las grandes compañías avanzan hacia sistemas multimodales -capaces no solo de escribir, sino también de hablar, escuchar e interactuar con entonaciones realistas- la dimensión emocional del lenguaje se vuelve un nuevo frente competitivo; es decir, responder “bien” ya entra dentro de la norma, el desafío es ahora “sonar humano”.

Sin embargo, este tipo de iniciativas también abre interrogantes. La publicación asimismo comenta cómo en comunidades como Reddit (donde actores y performers discutieron estas propuestas) las reacciones oscilaron entre la curiosidad y la incomodidad. Algunos usuarios calificaron la iniciativa como “distópica” y la interpretaron como un intento de entrenar modelos que eventualmente podrían reemplazarlos -en medio de una discusión donde todo el mundo de Hollywood y la actuación analiza los alcances de la IA en la producción cinematográfica-, mientras que otros relativizaron el alcance: “no están enseñando improvisación, están enseñando conversación humana”, resaltan. Otros usuarios, por su parte, fueron por el lado inverso y subrayaron las “buenas intenciones”: “un renovado valor de lo humano, lo imperfecto, lo en vivo”.

Lo que está bien y lo que está mal

El próximo desafío es todavía más complejo: enseñarle a la IA a distinguir entre lo correcto y lo incorrecto.

Ahí aparece una figura inesperada dentro del ecosistema tecnológico: la filosofía. En Anthropic, una de las compañías más influyentes en el desarrollo de modelos de lenguaje, ese rol lo ocupa Amanda Askell, una investigadora de 37 años formada en Oxford que tiene una tarea singular: enseñarle ética a un chatbot.

De acuerdo a lo que informa Wall Street Journal, Askell no escribe código ni entrena modelos con datasets tradicionales. Su trabajo consiste en estudiar cómo razona Claude -la IA de Anthropic- dialogar con ella y moldear sus respuestas a través de prompts extensos que, en algunos casos, superan las 100 páginas. El objetivo no es solo mejorar la precisión de las respuestas, sino uno más ambicioso: construir una suerte de “personalidad” con criterio moral.

En sus respuestas, la propia Askell compara su tarea con la de criar a un hijo: “dotar al sistema de una suerte de brújula interna, un “alma digital” que guíe los millones de interacciones que mantiene cada semana con usuarios”, explica. En lugar de depender exclusivamente de correcciones humanas externas, la idea es que el modelo pueda evaluar sus propias respuestas.

Las plataformas de IA ya pueden generar imágenes, video y audio que parecen humanos, pero todavía les falta ese nivel de sutileza en el diálogo con los usuarios

Ese enfoque se refleja en lo que Anthropic denomina “Constitutional AI”: una metodología que entrena a los sistemas a partir de un conjunto de principios inspirados en valores ampliamente aceptados, como evitar el daño al otro, ser honesto o respetar a las personas. El modelo genera una respuesta, la revisa a la luz de esos principios y la ajusta, y para esa tarea el entrenamiento de la “maestra en moral” es vital.

Pero este avance técnico abre una capa de discusión mucho más profunda: quién define cómo debe pensar, qué valores se incluyen, cuáles quedan afuera y hasta qué punto pueden considerarse universales.

En el plano ético, el desarrollo de la inteligencia artificial no se apoya en un único punto de vista, sino en una multiplicidad de enfoques y sistemas de valores. “Existen distintos marcos teóricos para pensar la ética, y no todos entienden lo mismo por conceptos como daño, autonomía o bienestar”, explica Sofía Geyer, especialista en innovación y neurociencias y fundadora de The Human Lab.

Geyer fue seleccionada como Eisenhower Fellow en 2025. Durante algunas semanas recorrió Estados Unidos investigando cómo las organizaciones están adoptando inteligencia artificial y nuevas tecnologías, y cuáles son sus implicancias en el trabajo humano, la toma de decisiones y la ética. A partir de ese trabajo, hoy lidera iniciativas enfocadas en el desarrollo de pensamiento crítico y ético aplicado a la tecnología y las empresas.

En esa línea, Geyer explica que metodologías como el Ethics Toolkit de Stanford proponen no solo declarar principios, sino aplicarlos de manera concreta en el diseño y desarrollo de tecnologías.

El desafío, según señala, comienza justamente ahí: en definir qué significa “dañar” en cada contexto. “No es lo mismo evaluar una tecnología desde su funcionalidad que desde su impacto en la autonomía de las personas. Por ejemplo, hay diseños -los llamados dark patterns– que pueden influir en la toma de decisiones sin que el usuario sea plenamente consciente”, advierte.

Geyer también pone el foco en un aspecto clave en el entrenamiento de sistemas: la antropomorfización. Diversas investigaciones muestran que cuanto más humano parece un sistema -ya sea por su tono de voz, sus expresiones o incluso detalles de interfaz como el texto que aparece progresivamente simulando escritura- mayor es su capacidad de influencia sobre el comportamiento humano. “Esos pequeños gestos de diseño no son neutros: construyen una sensación de conversación real que puede aumentar la confianza, pero también la persuasión”, explica.

Frente a este escenario, el enfoque ético implica ampliar la mirada más allá del sistema en sí. “Hay que mapear a todos los grupos que podrían verse afectados y analizar cómo la tecnología impacta en dimensiones como la dignidad, el bienestar o la autonomía”, sostiene. Ese ejercicio no es teórico: implica anticipar usos posibles, identificar riesgos y diseñar mecanismos de mitigación.

En ese proceso, agrega, la interdisciplinariedad es clave. “Hoy participan filósofos, pero también psicólogos, expertos en ciencias cognitivas y lingüistas. No se trata solo de qué dice la IA, sino de cómo lo dice y cómo eso afecta a las personas”, señala. Incluso en campos como la robótica o los vehículos autónomos, donde las decisiones pueden tener consecuencias críticas, estas discusiones se vuelven centrales: “¿A quién proteger en una situación límite? Son preguntas que no tienen respuestas universales, pero que igual hay que modelar”, explica la especialista.

En definitiva, más que una capa adicional, la ética aparece como una dimensión estructural del desarrollo tecnológico. “No es algo que se agrega al final, sino una forma de pensar todo el sistema desde el inicio: qué construimos, para quién y con qué consecuencias”, concluye.

En esta nueva etapa, el entrenamiento de la inteligencia artificial parece dejar de ser un desafío puramente técnico para convertirse en un profundo y delicado proceso cultural. Más allá de optimizar respuestas, el debate de fondo es qué tipo de inteligencia se está construyendo y cuál será su impacto en la sociedad.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí