
Apple acaba de demostrar que los modelos de "razonamiento" de IA en realidad no razonan en absoluto (ING)
En un reciente estudio titulado "La ilusión de pensar: Comprender las fuerzas y limitaciones de los modelos de razonamiento a través de la lente de la complejidad del problema", investigadores analizaron el comportamiento de los modelos de inteligencia artificial en su capacidad de razonamiento. Este estudio pone en cuestión la efectividad real de estos modelos en tareas que requieren razonamiento.
Los investigadores decidieron alejarse de las tradicionales pruebas matemáticas, optando por puzzles algorítmicos que los modelos no habían encontrado antes. Este enfoque permitió observar cómo los modelos de IA reaccionan ante problemas auténticamente complejos.
Lamentablemente, todos los modelos clasificados como "razonadores" encontraron limitaciones importantes. Al enfrentarse a los nuevos retos, todos ellos alcanzaron un punto de complejidad donde su precisión se desplomó al 0%. Este resultado sugiere que, en situaciones que requieren un verdadero razonamiento, estos modelos no logran mantenerse a flote.
La conclusión del estudio es clara: los modelos de IA no razonan como los humanos. En lugar de ello, la investigación revela que simplemente memorizan patrones de manera efectiva, lo que limita su capacidad para enfrentar problemas no familiares. La información disponible en el título y la descripción es limitada.
