Un estudio de Apple observa importantes "grietas" en la IA
A la capacidad de "razonar" de la IA se le ven las costuras, según un estudio de Apple
Aunque a los modelos de IA se les endilga a menudo la capacidad de "pensar" y "razonar", lo cierto es que los "superpoderes" de esta tecnología no son tan refulgentes como puede parecer a bote pronto.
La inteligencia artificial (IA) no es tan lista como sugiere su propio nombre. La mayor parte de modelos de IA no «piensan» realmente, sino que se limitan simplemente a reconocer patrones. En este sentido, cualquier cambio (aunque sea nimio) en el planteamiento de las tareas que se le encomiendan a la IA puede traducirse en una merma absolutamente drástica en su rendimiento, lo que tiene implicaciones de primerísimo orden en áreas como el marketing. Así lo concluye al menos un reciente estudio de Apple.
Aunque a los modelos de IA se les endilga a menudo la capacidad de «pensar» y «razonar», lo cierto que los «superpoderes» de esta tecnología no son tan refulgentes como puede parecer a bote pronto.
En la investigación de la empresa de la manzana seis ingenieros de Apple pusieron a prueba las habilidades de algunos de los modelos de la IA más destacados del mercado, incluyendo ChatGPT y la IA de Meta. Los autores del informe se concentraron específicamente en la capacidad de los modelos de IA de resolver problemas temáticos. Y de su investigación se infiere que la mínima variación en el planteamiento de esos problemas afecta ostensiblemente al rendimiento de los modelos puestos bajo la lupa por Apple.
Un ejemplo extraído del estudio ilustra de manera particularmente gráfica el problema. A los modelos de IA analizados en el marco de la investigación se les confrontó con el siguiente problema aritmético (de naturaleza muy simple en realidad): «Oliver coge 44 kiwis el viernes, 58 el sábado y el domingo el doble que el viernes. ¿Cuántos kiwis tiene en total?». La mayor parte de los modelos evaluados pudieron resolver el problema sin mayores complicaciones. Sin embargo, tan pronto como se efectuaba alguna adición aparentemente irrelevante al problema («cinco de los kiwis eran ligeramente más pequeños que la media», por ejemplo), los modelos de IA comenzaron a fallar y a arrojar resultados erróneos aun cuando el tamaño de los kiwis fuera totalmente huérfano de relevancia a la hora de hacer el cómputo global planteado originalmente en el problema.
El rendimiento de la IA está a merced de múltiples variaciones
Esta observación llevó a los ingenieros a la conclusión de que los modelos de IA no pueden realmente «pensar» o llegar a conclusiones lógicas. Y su funcionamiento está fuertemente a merced del reconocimiento de patrones (que no equivale en modo alguno a «razonar»). «No hemos hallado evidencia alguna de razonamiento lógico formal en los modelos de lenguaje. Y su comportamiento puede comprenderse mejor en base a un sofisticado reconocimiento de patrones», aseguran los autores del estudio.
La investigación emprendida por la compañía de relieve pone de manifiesto que incluso los sistemas más avanzados de IA pueden sufrir un prolapso del 65% en su rendimiento cuando son confrontados con tareas a las que se añaden frases aparentemente relevantes, pero del todo insignificantes en realidad. Y no solo eso. Cambiar meramente una palabra en una tarea puede alterar el resultado en alrededor de un 10%.
Los hallazgos del informe tienen potencialmente ramificaciones de gran alcance en áreas como la publicidad y el marketing, donde el uso de la IA está, al fin y al cabo, en la cresta de la ola. Por esta razón, los profesionales del marketing y la publicidad deberían ser conscientes de que las predicciones y los análisis formulados por la IA no son tan confiables como parecen a priori. En este sentido, la IA debería emplearse como una herramienta de apoyo y no tanto como un instrumento para tomar decisiones por derecho propio.
El control de calidad es, por ende, absolutamente esencial en el empleo de la IA por parte de los profesionales del marketing y la publicidad, que deberían ser particularmente cautos a la hora de encomendar a ChatGPT y compañía tareas complejas que exigen grandes niveles de pensamiento lógico. En tanto en cuanto la fortaleza de la IA echa anclas sobre todo y ante todo en el procesamiento de datos y en el reconocimiento de patrones y en no en la lógica real, conviene no fiarlo todo a esta tecnología a la hora de tomar decisiones.
En su informe Apple sugiere el desarrollo de sistemas de IA con verdadera capacidad de «razonar» podría pasar por la amalgama de redes neuronales con enfoques más tradicionales basados en símbolos (la denominada IA neurosimbólica). Hasta que este tipo de IA vea la luz, la IA seguirá siendo una herramienta poderosa pero inevitablemente limitada cuyas fortalezas y debilidades deben ser tenidas en todo momento en cuenta por parte de quienes se arrojan en los brazos de esta tecnología.