Les comparto una opinión sobre ética en la IA que me publicó el diario El Tribiuno, de Salta, Argentina. La titulé Una mirada desde el futuro para entender el presente de la IA
Por Ricardo Trotti
Le pedimos que escriba un mail, un discurso que defendemos como propio y
hasta le aceptamos las alucinaciones que inventa. La consultamos por una
erupción en la piel, por el “mal de ojo” y conversamos con ella como si fuera
una amiga más.
La Inteligencia Artificial Generativa ya no es un experimento de
laboratorio: es un copiloto invisible al que le entregamos parte del volante
con entusiasmo. Pero lo hacemos con la inquietud de viajar sin mapa, sin saber
a dónde nos llevará. Ese miedo es el que marca nuestro tiempo.
Ese miedo divide la conversación global en dos polos: el optimismo
tecnológico que ofrece soluciones mágicas, y el pesimismo distópico que
advierte sobre desempleo masivo y control algorítmico.
Para escapar de esa trampa, busqué distancia en la ficción. En mi novela
Robots con Alma: atrapados entre la verdad y la libertad imaginé un
futuro para mirar el presente como si ya fuera historia. Descubrí algo
fundamental: sin un marco ético robusto para la IA, no estaremos condenados al
apocalipsis, pero sí a perder el rumbo de nuestra humanidad.
El inquilino
La IA es como un inquilino que vive en nuestra casa y nunca deja de
observar y escuchar. Cada búsqueda en Google, cada chat en WhatsApp, cada video
en TikTok revela nuestras dudas, emociones y fobias. Con esos datos, los
algoritmos nos encierran en burbujas que refuerzan nuestras creencias y
suprimen las voces disidentes. Lo que se celebra en el mundo digital como
personalización no es otra cosa que vigilancia.
El riesgo no termina en la pantalla. Los sistemas de geolocalización
informan que no estamos en casa; una invitación abierta para los ladrones. Los
dispositivos de salud que monitorean nuestro sueño o pulso son valiosos para el
bienestar, pero también radiografías íntimas que, filtradas, pueden ser
utilizadas por aseguradoras o empleadores. Y los datos financieros que
entregamos al comprar en línea pueden transformarse en fraudes que vacían
cuentas en segundos.
La objetividad de la IA es un espejismo. Amazon debió desechar un
sistema de contratación porque penalizaba a las mujeres, y programas judiciales
como COMPAS en EE.UU. demostraron cómo la IA puede amplificar discriminaciones
existentes. La máquina no es malvada: solo replica la injusticia de los datos
con los que se alimenta.
El mayor peligro de la IA aparece cuando habla con excesiva seguridad.
No miente con malicia, pero sus ficciones pueden ser devastadoras. La promesa
de un “Dr. ChatGPT” resucitó el viejo problema del autodiagnóstico. En salud
mental, su incapacidad de empatía puede profundizar el aislamiento en lugar de
curar.
Las alucinaciones no son errores triviales. En 2024, un empleado en Hong
Kong transfirió más de 25 millones de dólares tras una videollamada con clones
digitales de sus jefes, creados con deepfake. En el terreno político, la
amenaza es mayor: en India y Estados Unidos circularon audios falsos atribuidos
a líderes que jamás hablaron.
El riesgo no se limita a la esfera individual: también golpea a
profesiones que son columna vertebral de la democracia. El periodismo es el
caso más evidente. Si antes Google y Facebook condicionaban el tráfico hacia
los medios, hoy los motores de IA directamente absorben y resumen las noticias
sin devolver audiencia a sus fuentes. La prensa pierde recursos y la sociedad
pierde a su vigilante. Una máquina puede narrar los hechos, pero no incomodar
al poder ni sentir empatía por los vulnerables.
Romper el ciclo de siempre
La historia muestra un patrón suicida: primero celebramos la innovación,
luego padecemos sus vicios y solo después regulamos. Así ocurrió con la
Revolución Industrial; recién regulamos después de sufrir la explotación
laboral y el trabajo infantil. Y pasó lo mismo con Internet; recién debatimos
sobre la violación de la privacidad tras el escándalo de Cambridge Analytica,
que reveló cómo se manipularon datos de millones de usuarios para influir en
elecciones en EE.UU. y el Brexit.
La diferencia positiva es que con la IA se intenta romper este ciclo.
Por primera vez, el debate sobre sus riesgos está en el centro de la agenda
global antes de la catástrofe. La Unión Europea aprobó en 2024 la primera Ley
Integral de IA, que prohíbe aplicaciones inaceptables como la “puntuación
social” y exige transparencia en modelos como ChatGPT. La UNESCO, por su parte,
fijó principios éticos globales en torno a la dignidad, los derechos humanos y
la sostenibilidad.
Mientras tanto, las grandes tecnológicas ensayan un “maquillaje ético”
que funciona más como marketing que como responsabilidad. Comités simbólicos,
principios grandilocuentes y promesas vacías. La ética sin consecuencias
termina siendo relaciones públicas.
Frente a ello, el verdadero contrapeso han sido los whistleblowers o
soplones desde las mismas tecnológicas: Frances Haugen revelando el daño de
Instagram en adolescentes, Peiter Zatko denunciando fallas de seguridad en
Twitter, Timnit Gebru exponiendo sesgos en los modelos de Google. El sistema
reconoce su valor con leyes que los protegen en Occidente, aunque en China y
otros países autoritarios el denunciante es castigado como subversivo.
El precio de la confianza
La nueva tendencia es incrustar la ética en la propia ingeniería: model
cards que explican sesgos, red-teaming para detectar fallas antes de
salir al mercado, marcas de agua invisibles para identificar contenidos
generados por IA. Incluso han surgido empresas que venden auditorías de sesgo
como si fueran certificaciones de calidad. Por suerte, la ética ya no es
discurso y empieza a ser producto.
Nada de esto ocurre en el vacío. La IA es la nueva frontera del poder
mundial. La pugna entre EE.UU. y China no es ideológica, es estratégica. Los
chips son el nuevo petróleo y las tierras raras, el botín codiciado. Para
América Latina y África, el riesgo es repetir un colonialismo digital: exportar
datos en bruto e importar productos terminados.
El otro dilema es energético. Entrenar modelos como GPT-4 o 5 requiere
la energía de ciudades enteras y la industria mantiene en secreto el verdadero
costo energético, una caja negra que impide medir el impacto ambiental real. Google,
Microsoft y Amazon planean recurrir a energía nuclear para sostener la demanda
y no hay certeza sobre si asumirán los riesgos que ello implica.
Sería miope hablar solo de riesgos. La IA detecta patrones en
mamografías que salvan vidas, predice la estructura de proteínas con la que se
diseñan fármacos o anticipa sequías que permiten distribuir ayuda humanitaria
antes de la hambruna.
No se trata de elegir entre un inquilino vigilante o uno salvador, sino
de establecer reglas de convivencia.
El debate público
La respuesta más poderosa frente a la opacidad no es esperar una ley
perfecta, sino iniciar un debate público robusto. Se necesita una
alfabetización digital que enseñe a dudar de la IA: que los ingenieros estudien
filosofía, que los abogados entiendan de algoritmos, que los periodistas
cuestionen cajas negras como cuestionan discursos políticos.
La educación es ya un campo de batalla. Para muchos, ChatGPT se ha
vuelto un atajo que resuelve tareas, pero al mismo tiempo amenaza con atrofiar
el pensamiento crítico. El reto no es prohibirlo, sino enseñar a usarlo sin
renunciar al esfuerzo de aprender y razonar.
De todo esto emergen los grandes dilemas que definen nuestra relación
con la IA: privacidad, sesgos, responsabilidad legal, transparencia, seguridad,
calidad de los datos, propiedad intelectual, impacto laboral, ambiental y
psicológico, soberanía digital, colapso de modelos y autonomía humana.
Y más allá, tres nuevos desafíos: la irrupción de robots humanoides, los
agentes autónomos capaces de tomar decisiones por nosotros y la concentración
del poder computacional en pocas corporaciones.
El penúltimo dilema es existencial: cómo nos preparamos para una
superinteligencia, una IA General que superará al ser humano. Y el último, el
más íntimo: en un mundo saturado de interacciones, arte y compañía generados
por IA, ¿qué valor tendrá la experiencia humana auténtica? ¿Cómo preservaremos
la belleza de nuestra imperfecta creatividad, nuestras emociones genuinas y
nuestras conexiones reales frente a la seducción de una réplica perfecta?
Nuestro futuro
La IA sigue siendo una herramienta, y su rumbo dependerá de nuestras
decisiones. El desafío no es controlarla, sino inspirarla, incrustando en sus
cimientos principios como la verdad, la empatía y el sentido crítico para que
evolucione hacia una forma de sabiduría. El futuro no se definirá por un
optimismo ciego ni por un pánico paralizante, sino por nuestra capacidad de
construir un marco ético que combine regulación, estándares verificables y la
vigilancia de una ciudadanía informada.
En la distancia de Robots con Alma encontré la claridad para ver
que lo que está en juego no es solo un algoritmo, sino el alma de nuestra
sociedad digital. La literatura de ficción no ofrece soluciones técnicas, pero
sí la perspectiva para entender que no se trata solo de crear una inteligencia
artificial, sino de ayudarla a que, en su propia evolución, elija valorar la
vida, la verdad, la libertad y la conciencia. Ayudarla a ser más humana.