La IA no deja de avanzar y parece imparable. En plena crisis global de memoria a causa de ella, las grandes empresas no dejan de acumular inversiones nunca antes vistas y una deuda que crece peligrosamente.
A estas alturas, no es ningún secreto que el modelo actual de servicios como ChatGPT no es sostenible. Cada consulta que hacemos al chatbot tiene un coste enorme que ni siquiera los servicios de suscripción son capaces de cubrir y ahora que el boom y el furor inicial empiezan a relajarse, la rentabilidad cobra un inevitable protagonismo.
El usuario general de estos chatbots tiene acceso gratuito y prácticamente todos sus servicios, y a la empresa le cuesta mucho, mucho dinero. La urgencia por una financiación viable crece y el problema es que esas personas que empiezan a necesitar dinero desesperadamente, tienen acceso a una cantidad y calidad de nuestra información más íntima como nunca antes había ocurrido.
La ética de las empresas de IA está pasando a segundo plano
ChatGPT va a incluir publicidad, como lo acabará haciendo toda su competencia. Pero no publicidad genérica como la que suponen los anuncios en televisión: publicidad apuntada con precisión quirúrgica a tus intereses, rutinas y, posiblemente, también debilidades. Al fin y al cabo, la IA ya nos conoce inquietantemente bien.
No podemos extrañarnos: le hemos dado toda esa información personal expresamente. En forma de fotografías, de horarios que optimizar con nuestras rutinas, de la información de lo que compramos y lo que no, de cómo trabajamos y de qué hacemos con nuestro ocio. Incluso le hemos comunicado nuestros pensamientos y dudas más íntimos y personales, como si realmente fuese una fuente de terapia gratuita. Nadie hasta ahora había tenido tanto poder sobre cada uno de nosotros.
Que justo ahora empresas como OpenAI y Anthropic estén sufriendo una marcada redirección en sus políticas, orientándose para dar prioridad a la rentabilidad, ha provocado que numerosos profesionales y expertos hayan protagonizado una oleada de dimisiones en las cúpulas más altas, advirtiéndonos al público general de lo que está ocurriendo.
La doctora en Economía por Harvard Zoë Hitzig ha sido una de las más sonadas, por haber renunciado a su puesto en OpenAI justo cuando iniciaban las pruebas de publicidad en la IA de ChatGPT en EE. UU.
La doctora no se ha mordido la lengua ni un poco, con frases tan tajantes como esta: «Se confirmó mi lenta constatación de que OpenAI parece haber dejado de plantear las preguntas que intenté ayudar a responder», lanzadas en un artículo de The New York Times que no tiene desperdicio.
Y Hitzig no es la única: Mrinank Sharma, doctor en aprendizaje automático por la Universidad de Oxford y ex-investigador en Anthropic, renunció casi a la vez que ella y publicó una carta asegurando que el mundo está en peligro, en palabras textuales suyas.
Por si fueran noticias poco preocupantes de por sí, tenemos que sumarles la disolución del equipo Mision alignment en OpenAI, originalmente destinado a asegurar la labor ética y de comunicación de la empresa y que parece que Sam Altman ya no necesita.
| Nombre | Cargo y Empresa | Motivo Público Declarado |
|---|---|---|
| Ilya Sutskever | Cofundador, OpenAI | Divergencias sobre la dirección segura del desarrollo de la AGI. |
| Jan Leike | Colíder de Superalignment, OpenAI | Falta de recursos y priorización de la seguridad frente a productos. |
| Zoë Hitzig | Investigadora de Políticas, OpenAI | Priorización de la monetización sobre las cuestiones éticas y de privacidad. |
| Mrinank Sharma | Líder de Salvaguardas, Anthropic | Advertencia sobre "riesgos existenciales no mitigados". |
Son muchas señales, todas ellas apuntando a la vez en la misma dirección: es normal no estar tranquilo. Mantener activas estas empresas cuesta una fortuna difícil de imaginar para el ciudadano de a pie, con lo que sus responsables se enfrentan a la decisión de elegir entre renunciar a lo que hacen y desarrollan… o buscar la forma de hacerlo rentable. Sabemos cómo acaban las historias de ese tipo.
Los peligros de la IA para la salud mental
El problema no es la IA como herramienta, que tiene un potencial beneficioso innegable. El problema, como con todas las herramientas, es el uso que se le da. Tanto desde el desarrollador como desde el usuario. Y con una tecnología tan nueva, tan diferente y tan atractiva, estamos haciéndolo muy mal desde ambos extremos.
A nadie le preocupa demasiado que aparezcan anuncios en ChatGPT o en Gemini: ya estamos bombardeados de publicidad 24/7. El peligro radica en que hemos dado a estas empresas una información tan sincera y personal que eso les da un poder enorme. La doctora Hitzig expresa en el artículo citado que muchas personas «han revelado sus pensamientos más privados; la gente les cuenta a los chatbots sus temores médicos, sus problemas de pareja y sus creencias sobre Dios y el más allá».
Con esto en mente, nos dice que «OpenAI posee el registro más detallado del pensamiento humano privado jamás reunido. ¿Podemos confiar en que resistan las fuerzas arrolladoras que los empujan a abusar de él?».
No cuesta imaginar lo fácil que sería para la empresa, incluso con el nivel de desarrollo actual del chatbot y sin apuntar al futuro ni echar mano de la ciencia ficción, ejercer una manipulación sutil sobre sus usuarios para empujarlos al consumo de ciertos productos o a ciertas prácticas, todo ello sin que parezca que se nos ha expuesto a publicidad en momento alguno.
Es el caramelo más goloso que las empresas han tenido nunca al alcance: hablamos con un potencial vendedor que conoce hasta el último de nuestros secretos y creemos que es un consejero servicial y neutral.
