Sam Altman, CEO de OpenAI, ha advertido sobre una inminente crisis de fraude intensificada por el uso malintencionado de la inteligencia artificial (IA), durante un discurso en la Reserva Federal de EE. UU. Esta preocupación se basa en el crecimiento de técnicas de ciberdelincuencia avanzadas, como la clonación de voz y el vishing, que se aprovechan para engañar a las personas. A pesar de soluciones como las «contraseñas familiares», la sofisticación de los fraudes va en aumento, afectando incluso a altos cargos y entidades religiosas mediante la suplantación de voz para solicitar dinero.
Mientras tanto, OpenAI y Altman se encuentran en el centro del debate, no solo por señalar el problema sino también por desarrollar tecnologías (como GPT) que los ciberdelincuentes podrían usar para fines ilícitos. OpenAI tomó la decisión de no publicar la versión completa de GPT-2 alegando posibles malos usos, pero posteriormente, modelos más avanzados como GPT-3 y GPT-4 se hicieron accesibles, lo que generó críticas y preocupaciones sobre la responsabilidad y el control de las tecnologías de IA.
Altman también está implicado en WorldCoin, una iniciativa que busca soluciones a los problemas de autenticación y seguridad digital mediante el escaneo de iris, aunque este enfoque ha enfrentado controversias y desafíos regulatorios. A raíz de los problemas con las autoridades, WorldCoin ha optado por nuevas formas de verificación basadas en pasaportes con NFC y tecnologías de reconocimiento facial durante videollamadas, presentando un dilema sobre la efectividad y la privacidad de estas medidas.
En términos de regulación y ética, la situación plantea interrogantes sobre cómo los desarrollos en IA deben ser manejados para prevenir abusos sin coartar la innovación. La tensión entre avanzar en tecnología y proteger al público de sus potenciales riesgos se mantiene como un desafío clave para líderes de la industria como Altman, las compañías de tecnología y los organismos reguladores.
