La relación entre inteligencia artificial (IA) y razonamiento humano es compleja y aún está bajo investigación. Modelos de IA como o3-mini de OpenAI o DeepSeek R1 son descritos como capaces de «razonar» en el sentido de recopilar, ordenar información y llegar a conclusiones. No obstante, esta capacidad de razonamiento es diferente del proceso humano, que incluye formas de razonamiento deductivo e inductivo, entre otros. En un intento por imitar el razonamiento humano, se desarrollaron procesos como la «cadena de pensamiento» de OpenAI, que buscan descomponer problemas en etapas para resolverlos.
Aunque algunos modelos de IA, como o3, han mostrado un rendimiento impresionante en pruebas de razonamiento y abstracción, todavía se debate si realmente «razonan» como los seres humanos. Según un estudio de 2023 por Melanie Mitchell y otros, los modelos de IA requieren grandes cantidades de datos para entrenarse, lo que sugiere que su «razonamiento» podría no ser tan autónomo o innovador como se esperaría. Incluso un análisis posterior de o3 destacó la cantidad de recursos computacionales necesarios para su capacidad de razonamiento, planteando dudas sobre la eficiencia y la naturaleza del «razonamiento» de las máquinas.
Un estudio de 2024 investigó si los grandes modelos de lenguaje (LLMs) realmente entendían los problemas de razonamiento o si simplemente memorizaban datos. Los hallazgos sugieren que estos modelos emplean una mezcla de heurísticas y reglas memorizadas, lo que cuestiona su capacidad para generar soluciones genuinas y adaptativas. Esta conclusión apoya el concepto de una «inteligencia irregular», donde la IA puede resolver tareas complejas pero fallar en problemas simples para los humanos.
La percepción de la inteligencia artificial está evolucionando de verla como una entidad que «razona» de manera similar a los humanos, a entenderla como una tecnología que imita comportamientos humanos sin necesariamente comprenderlos completamente. Futuras mejoras en los modelos de IA podrían reducir estas discrepancias, cambiando la forma en que conceptualizamos el «razonamiento» en la inteligencia artificial.
