Digital > Global | INFORME ESPECIALIZADO
Redacción Adlatina |

El MIT advierte contra la adicción a la inteligencia artificial

El atractivo de la IA radica en su capacidad de identificar los deseos y ofrecerlos cuándo y cómo el usuario desea: eso crea una cámara de resonancia de afecto que amenaza con ser extremadamente adictiva.

El MIT advierte contra la adicción a la inteligencia artificial
La gente está empezando a invitar a las IA a su vida como amigos, amantes, mentores, terapeutas y maestros.

Las preocupaciones sobre la IA a menudo imaginan escenarios apocalípticos en los que los sistemas escapan al control humano o incluso a la comprensión. Aparte de esas pesadillas, hay daños a corto plazo que deberían tomarse en serio: que la IA podría poner en peligro el discurso público mediante la desinformación; consolidar sesgos en las decisiones sobre préstamos, juicios o contrataciones; o perturbar las industrias creativas.

Sin embargo, podrían estar gestándose toda una clase de riesgos diferente, pero no menos urgentes: los que surgen de las relaciones con agentes no humanos. El acompañamiento de la IA ya no es teórico: el MIT analizó más de un millón de registros de interacción de ChatGPT, y encontró que el segundo uso más popular de la IA es el juego de roles sexuales.

Si bien en el pasado se han dado las alarmas sobre la “adicción” a las novelas, la televisión, internet, los teléfonos inteligentes y las redes sociales, todas estas formas de medios están igualmente limitadas por la capacidad humana. La IA generativa es diferente. Puede generar contenido realista sobre la marcha sin fin, optimizado para adaptarse a las preferencias precisas de quien sea con quien interactúe.

Para abordar el daño que podrían suponer los compañeros de IA es necesario comprender a fondo los incentivos económicos y psicológicos que impulsan su desarrollo. Hasta que no se comprendan estos factores que impulsan la adicción a la IA, será imposible crear políticas eficaces.

En cuanto a las regulaciones, uno de los enfoques más eficaces es incorporar salvaguardas directamente en los diseños técnicos, de manera similar a la forma en que los diseñadores previenen los peligros de asfixia haciendo que los juguetes de los niños sean más grandes que la boca de un bebé. Este enfoque de “regulación por diseño” podría buscar hacer que las interacciones con la IA sean menos dañinas al diseñar la tecnología de manera que sea menos deseable como sustituto de las conexiones humanas, pero que siga siendo útil en otros contextos.

Los tecnólogos están impulsados por el deseo de ver más allá de los horizontes que otros no pueden comprender. Quieren estar a la vanguardia del cambio revolucionario. Sin embargo, la dificultad de construir sistemas técnicos palidece en comparación con el desafío de fomentar interacciones humanas saludables.

Cada vez con más frecuencia se presencian situaciones en las que la tecnología diseñada para "hacer del mundo un lugar mejor" causa estragos en la sociedad. Se necesitan acciones reflexivas, pero decisivas, antes de que la IA se convierta en un conjunto omnipresente de lentes de color rosa para la realidad, antes de que se pierda la capacidad humana de ver el mundo como realmente es y de reconocer cuándo el ser humano se ha desviado de su camino.