Apple confirma cuál es la principal grieta de la IA y cómo afecta a su rendimiento

Ingenieros de la compañía han demostrado que la IA solo resuelve problemas matemáticos a través de la imitación

Inteligencia Artificial Problemas
1 comentario Facebook Twitter Flipboard E-mail

Apple ha centrado una gran parte de su estrategia de futuro en la inteligencia artificial. De esta forma, la compañía se encuentra trabajando en la integración de Apple Intelligence en el iPhone 16, pero aún no ha ofrecido detalles sobre la fecha de lanzamiento oficial o la llegada de este servicio a Europa. Y, a medida que profundiza en la IA y el impacto que esta tiene en la sociedad, lleva a cabo varios estudios centrados en esta tecnología. Sin embargo, no todos arrojan resultados positivos a la altura de las expectativas de la compañía.

Como señala el portal Ars Technica en una reciente publicación, un estudio de seis ingenieros de Apple ha revelado que modelos avanzados de lenguaje como ChatGPT o Gemini presentan fallos graves en el razonamiento lógico matemático cuando se enfrentan a cambios triviales en los problemas. Así, cuentan con una fragilidad extrema en su razonamiento matemático, ya que dependen de patrones probabilísticos en lugar de una comprensión formal de los conceptos subyacentes.

Los cambios no relevantes tienen un impacto significativo en la IA

Por desgracia para la inteligencia artificial, cambiar algunos nombres o números en los problemas matemáticos llevó a experimentar caídas en la precisión de entre el 0,3% y el 9,2%. De esta forma, no solo se mostró una gran variación en los resultados de diferentes modelos, sino que los investigadores concluyeron que estos no realizan un razonamiento formal real. Así, lo que hacen es intentar imitar los pasos de razonamiento observados en los datos de entrenamiento. Por ello, cuando se añadieron detalles irrelevantes a los que se les dio importancia, la precisión cayó de forma catastrófica: entre un 17,5% y un 65,7%.

Al toparse con datos irrelevantes, los modelos tienden a hacer operaciones incorrectas (como, por ejemplo, restar datos sin relevancia) y ello lleva a un fallo crítico en su razonamiento. De esta forma, este estudio refuerza investigaciones previas que sugieren que los modelos de lenguaje solo imitan el razonamiento humano utilizando coincidencias de patrones en lugar de entender realmente los problemas. Por ello, la IA genera una "ilusión de comprensión" que, a su vez, genera fallos cuando se les presenta información que no encaja con los datos de entrenamiento. Por ello, expertos como Gary Marcus creen que el próximo gran avance llegará cuando los modelos puedan realizar una manipulación simbólica real y sean capaces de razonar los cambios.

En 3DJuegos | Un youtuber denuncia que una empresa ha copiado su voz con Inteligencia Artificial para sacar beneficio económico de ello

En 3DJuegos | La IA se convierte en el principal enemigo de la IA y los responsables reconocen que no saben cómo pueden gestionar la situación

Imagen principal de Zheny Luo (Unsplash)

VÍDEO ESPECIAL

17.434 visualizaciones

Las CLAVES del ÉXITO de ASTRO BOT

El simpático Astro Bot ya tiene nuevo juego y como sus anteriores aventuras, es un auténtico imprescindible. El exclusivo de PS5 está levantando pasiones entre jugadores de todo el mundo y es fácil de entender una vez te pones a los mandos del DualSense...