Dolar Oficial: - Dolar Blue:- Dolar CCL:- Dolar Bolsa: - Dolar Mayorista: -

EL LIBERAL . Santiago

Milagros Miceli, referente mundial en IA: "Alguien tiene que poner un freno"

Experta e investigadora del trabajo de datos e Inteligencia Artificial. Elegida por la Revista TIME de EEUU como una de las 100 personas más influyentes del mundo en Inteligencia Artificial. Con una mirada crítica y profunda, la socióloga argentina conversa en exclusiva con EL LIBERAL.

Foto- IG@milagrosmiceli

Foto: IG/@milagrosmiceli

06/02/2026 06:00 Santiago
Escuchar:

Milagros Miceli, referente mundial en IA: "Alguien tiene que poner un freno" Milagros Miceli, referente mundial en IA: "Alguien tiene que poner un freno"

HACÉ CLICK AQUÍ PARA UNIRTE AL CANAL DE WHATSAPP DE EL LIBERAL Y ESTAR SIEMPRE INFORMADO

La Inteligencia Artificial necesita mucho trabajo manual. Y detrás de ese trabajo hay precarización, maltrato, estrés postraumático y acuerdos de confidencialidad que firman los trabajadores con las empresas. El Banco Mundial confirmó que en el mundo hay entre 150 y 420 millones de personas que realizan el etiquetado de datos y/o la moderación de contenidos, para luego ser entregados a las grandes plataformas como OpenAI, Google, Palantir, Amazon, Meta. Esos mismos datos etiquetados sirven después para entrenar los algoritmos. Esa interpretación de datos lo realizan trabajadores con estudios terciarios o superiores, hasta con doctorados.

Milagros Miceli es argentina, graduada en Sociología en la UBA y doctora en Ingeniería Informática. Está radicada en Alemania donde trabaja en el Instituto Alemán de Internet. Ella lleva años investigando el tema y en una entrevista con EL LIBERAL abordó los distintos aspectos, tanto técnicos como sociales, que la Inteligencia Artificial trae aparejado.

También te puede interesar:

Pregunta: La IA ya se usa para decidir créditos, empleos, diagnósticos médicos, vigilancia. No hace mucho saltó a la opinión pública el caso de la empresa Palantir y su rol en el conflicto árabe-israelí o en la guerra Ucrania-Rusia ¿Estamos preparados para aceptar esas decisiones y la forma en la que nos manipulan?

Respuesta: No estamos preparados como sociedad para aceptar las decisiones que toman los magnates y poderosos que manejan los datos y la Inteligencia Artificial. Y eso es parte del truco del pase de magia: que nos tome de sorpresa, que todo sea la doctrina del shock llevada al campo de la tecnología. Por ejemplo, las armas de la IA, usadas en un contexto como puede ser el genocidio en Gaza que lo presentan como "creamos una inteligencia artificial que mata con este margen de error" es de locos, hablando y haciendo referencia a Palantir. Pero todo es tan shokeante que no podemos darnos el lujo de escandalizarnos. Y no sólo hablamos de estas IAs que deciden entre la vida y la muerte y el acceso a recursos, o el de acceder a un beneficio social; también hablo de IAs que se usan para crear imágenes falsas, para decidir lo que podemos saber del mundo e inundarnos de noticias falsas, de aquellas que nos confunden para que no sepamos distinguir qué es lo verdadero de lo falso y estemos constantemente abrumados. El mundo está en un momento terrible pero tampoco somos capaces de organizarnos y hacer algo efectivo contra eso.

P: ¿Qué consecuencias puede tener una IA mal diseñada o mal entrenada?

R: Y las consecuencias pueden ser nefastas. Especialmente con poblaciones y sectores más vulnerables. Pero desde lo técnico, una IA bien entrenada también produce daños porque estas tecnologías dejarán afuera a alguien, y siempre están entrenadas con un propósito en mente. Obvio que hay casos de IAs bien diseñadas, con propósitos para el beneficio de ciertas personas; pero ese no es el modelo de negocios de las gigantes tecnológicas.

P: ¿Podemos hablar de una nueva forma de desigualdad digital ligada a quién produce y quién se beneficia de esos datos?

R: Hay un nuevo tipo de desigualdad en quién posee y maneja esos datos, hace uso de los mismos, y todo el resto. Y en ese todo el resto, estamos todos nosotros, los sujetos de los datos, los y las trabajadoras de datos, quienes no son sujetos ni trabajadores. Un claro ejemplo de la desigualdad es la plataforma Mi Argentina que funciona con reconocimiento facial: sino tienes reconocimiento facial no puedes ingresar, no puedes tramitar un DNI o un turno para el médico.

P: ¿Existe hoy un trabajo humano "invisible" detrás de la IA, procesando, clasificando y corrigiendo información? ¿En qué condiciones se realiza?

R: Si vamos a lo específico: hoy sí existe un trabajo invisible, aunque a mí me gusta llamarlo más invisibilizado, y es a propósito. A qué nos referimos: primero cuando se habla de IA no hablamos de trabajo, pareciera que se hace sola. Y el segundo paso es que hablamos de aquel genio, ingeniero, científico de datos que creó el algoritmo, pero no hablamos de quiénes realizan este trabajo que te diría casi artesanal. Y que tiene que ver con producir datos, con la recolección, clasificación, etiquetado y ordenado de datos. Y eso es un trabajo artesanal, a mano, donde trabajadores le ponen las manos, el cuerpo, la inteligencia, la interpretación a esa IA. Y se realiza en condiciones muy precarias, se realiza a gran escala. Así como se necesitan muchos datos se necesita mucha gente produciéndolos. Se terceriza este tipo de trabajos porque no se los hace en las gigantes tecnológicas, y al tercerizarlas, nunca funciona a favor del trabajador. Siempre favorece la precarización. Cuando hablamos de tercerización, lo hacemos a partir de plataformas, trabajo plataformizado, como el del Uber, como de los repartidores tales como el Rappi; y al hacerlos hay que interpretarlos, hacer una tarea, loguearse-registrarse, hacer una prueba, y cuando recién lo logran, ahí les dan el trabajo. Y eso paga unos centavos de dólar, no paga mucho. Todo eso es trabajo no pago. No tienen protección, no tienen obra social, no hay jubilación.

Foto: IG/@milagrosmiceli

P: ¿Qué consecuencias puede tener entrenar algunas plataformas de Inteligencia Artificial?

R: En muchos casos, hay daño psicológico por la naturaleza de los contenidos. Hay mucha gente trabajando con datos e imágenes perturbadoras, desde imágenes de pedofilia, suicido; todo ese daño es prevalente, y los trabajadores no tienen protección. Para hacer las cosas peor, firman acuerdos de confidencialidad donde no les permiten hablar con amigos, familiares, para decirles qué les está pasando. Les prohíben contar de qué trabajan, qué producto están entrenando, qué herramienta o modelo se entrena con esos datos. Y más allá de todo esto, las empresas los amenazan con despedirlos.

P: ¿Todo lo técnicamente posible debería hacerse?

R: La pregunta cero que hay que hacerse si decidimos usar IA es qué tipo de IA necesito y cuál diseñar. Esta es una pregunta base porque hay otras tecnologías, o formas. ¿Necesito esta IA para resolver este problema o es mejor hacer otra cosa? Y la otra cosa es clave: no porque algo sea técnicamente posible significa que uno la tenga que hacer. La bomba atómica fue técnicamente posible y tuvo las consecuencias que tuvo. La mentalidad de Silicon Valley es "movámonos rápido y rompamos cosas", "mejor pedir perdón que permiso", "hagamos todo rápido y sigamos para adelante"; y esto no puede ser posible.

P: ¿Quién pone los límites éticos a la IA? ¿Qué rol deberían cumplir el Estado, las universidades y la sociedad civil en este debate?

R: Alguien tiene que poner un freno. Y ese freno lo tendrían que poner nuestras instituciones, los estados, las organizaciones supranacionales. Pero si tenemos una ONU que no puede poner un freno a un genocidio, a las invasiones. Entonces qué podemos esperar. Descreo de la regulación. Hay una connivencia extrema de los estados más poderosos y estas tecnologías, basta ver quién estaba en la primera fila de la asunción de Trump y en nuestro país. Fijémonos nomás en Milei por qué tipo de tecnología milita. Es llamativo que funcionarios breguen para que no haya regulación. Quién creará regulaciones que no sean superficiales con respecto a la ética. Creo que las universidades públicas que no están enlazadas con estos grandes monopolios tecnológicos podrían ser, y sobre todo la gente, creo que por ahí se puede hacer algo. Estas tecnologías penetraron cada aspecto de nuestra sociedad de tal manera que es imposible negarse: usas un teléfono con reconocimiento facial, vas a un aeropuerto y necesitas reconocimiento facial, vas a pedir un crédito a un banco y tus datos lo procesa una Inteligencia Artificial, aplicás a un trabajo y las estadísticas se basan en una inteligencia artificial; ya es muy difícil negarse. Pero en ese no aceptar pasivamente, está el rol del usuario, y eso se hace a partir de la decisión de la gente. Sin nuestros datos no funcionan estas tecnologías. Hay que empezar a pensar otras formas de resistencia, desde la gente de a pie, la gente común que tome una decisión y ahí esto puede tener un impacto real.

P: Dices la tecnología no decide sola: decide con nuestros datos, criterios y valores que ponemos las personas. ¿En este sentido, consideras que la IA es un puente, un inicio, una transición hacia otro nuevo paso tecnológico, algo nuevo que aún está por definirse y/o por venir?

R: Probablemente. Las tecnologías siguen avanzando. La IA tiene mucho espacio por explotar y todavía no ha tocado su techo. Ahora bien: a mí no me gusta hacer futurología y tampoco creo que la IA sea desde lo puramente técnico una tecnología tan disruptiva. Se trata de estadísticas muy avanzadas, sofisticadas, pero no dejan de ser eso. Y esto tiene muchos años de trayectoria. La misma IA que hoy conocemos tiene 70/80 años de trayectoria. Podríamos ahondar en algo: de qué estamos hablando cuando decimos Inteligencia Artificial y afirmar que estamos hablando de un grupo que no son homogéneas. Lo disruptivo de estas tecnologías es animarse a pensar que es el comienzo de algo mayor: es el uso que se le está dando, la posibilidad y concentración de poder en manos de unos pocos. No hablo solamente de quiénes producen estas tecnologías sino de quiénes tienen el poder de utilizarlas sobre las masas. En eso sí podemos decir que estamos ante una herramienta que se está usando dentro de un todo y ese todo tiene que ver con nuevos fascismos, con nuevas formas de dominación, con un momento de la historia muy específico y muy peligroso. Técnicamente hay muchas posibilidades de seguir evolucionando e investigando, haciendo trabajos fantásticos en este campo, pero lo disruptivo es el uso de esto en manos de gente muy pero muy poderosa.

P: ¿Qué deberíamos cuidar, especialmente, para que la inteligencia artificial no nos haga perder lo más humano que tenemos? ¿Creés que la IA puede afectar la privacidad de las personas? ¿De qué manera y cómo mitigarlo?

R: Deberíamos cuidar el capital más importante que puede tener un ser humano: su humanidad. La empatía por el de al lado, el amor por el prójimo, el sentido de comunidad, no caer en esto de preguntarle a ChatGPT cómo hago un bizcochuelo y evitar llamar a la tía para que te dé la receta; no perder de hablar con el otro, no creer que ChatGPT te va dar un mejor consejo que un amigo. Florecen los casos que terminan los bots en el rol de psicólogos. Es grave. No hay que perder nuestra creatividad para hacer cosas, para escribir, para pintar, para apreciar el arte, para buscar soluciones. Y finalmente, no hay que perder la capacidad de pensar críticamente, no delegar funciones tal que la IA termine pensando por nosotros y nos convenza que pensó mejor que nosotros. Hay muy pocas cosas que estas tecnologías pueden hacer mejor que nosotros. En cinco años no va a ser tan frecuente que un pibe sepa leer un libro y nos están imponiendo estas tecnologías, también en áreas como la educación. ¿Cómo mitigarlo? es muy difícil evitar todo.

BIO:

Milagros Miceli nació en Buenos Aires. Es madre, inmigrante y primera en su familia en graduarse de la universidad y ser académica. Fue seleccionada por la prestigiosa Revista Time como una de las 100 personalidades más influyentes de la IA.

Se licenció en Sociología en la UBA e hizo un doctorado en Ingeniería Informática. Investiga cómo se generan datos de campo para el aprendizaje automático, las condiciones laborales y las dinámicas de poder en el trabajo con datos, especialmente en relación con el uso de las Inteligencias Artificiales. Desde 2018, colabora continuamente con comunidades de trabajadores de datos a nivel mundial. Estudia las condiciones laborales en el trabajo de datos tercerizado que alimenta los modelos de IA. 

Es investigadora principal en el Instituto DAIR de Alemania, jefe de la unidad de investigación de Datos, Sistemas Algorítmicos y Ética del Instituto Weizenbaum y profesora en la Universidad Técnica de Berlín. También es investigadora principal del proyecto Data Workers' Inquiry, un espacio para que los trabajadores de datos participen activamente en la investigación de IA.

Lo que debes saber
Lo más leído hoy