La inteligencia artificial (IA) ha experimentado un crecimiento exponencial reciente, avanzando significativamente desde el lanzamiento de GPT-3.5 a GPT-4o, con mejora en la calidad de la experiencia de conversación. No obstante, la evolución ha traído consigo complejidades como el aumento en las «alucinaciones» de la IA, es decir, la generación de respuestas convincentes pero incorrectas, producto de la interpretación errónea de los patrones de datos. A pesar de los esfuerzos por mitigar estos erroresportes introduciendo modelos como O3 y O4-mini, diseñados para mejorar el razonamiento y reducir errores, se ha observado un incremento en la frecuencia de las alucinaciones, hasta el punto de que estos modelos generan un número mayor de respuestas incorrectas en comparación con sus predecesores.
La importancia de la precisión y la veracidad de la información suministrada por la IA se hace evidente en situaciones delicadas, como el resumen de documentos o la preparación de informes, donde la dependencia de datos fidedignos es crucial. La experiencia de un abogado que presentó en corte documentos generados por ChatGPT, los cuales contenían citas legales ficticias, resalta los riesgos asociados al uso acrítico de la inteligencia artificial y subraya la necesidad de una verificación humana cuidadosa.
A medida que la IA continúa desarrollándose, los avances tecnológicos deben ir acompañados de una mayor comprensión de sus limitaciones, especialmente en lo que se refiere a la tendencia de estos sistemas a crear información no basada en hechos reales. Esta precaución es fundamental, especialmente en aplicaciones profesionales y legales donde la exactitud es indispensable. Por lo tanto, mientras la tecnología avanza hacia modelos más sofisticados, la supervisión humana y el juicio crítico siguen siendo componentes esenciales en la interacción con sistemas de inteligencia artificial.
