September 21, 2025
Hay personas que sienten que la mejor IA será tonta y vago con el tiempo. Es más de una sensación

 – La nación
Tecnología

Hay personas que sienten que la mejor IA será tonta y vago con el tiempo. Es más de una sensación – La nación

Una nueva inteligencia artificial (IA) llega al mercado, las redes sociales y las comunidades especializadas con sus nuevas habilidades, y al mismo tiempo comienza un ciclo en el que los usuarios que conocen más los modelos decepcionan. En su experiencia, lo que Chatbot o API lo logró sin ningún problema hasta ayer permanece en un vaga intento.

Modelos “súper rotos”. Cuando comenzó, Gemini 2.5 Pro recibió grandes elogios en las redes sociales. El modelo fue Muy rápidoTenía una gran ventana de contexto de la más barata y era Un animal En la programación. Sin embargo, comentarios en comunidades como Reddit han aparecido durante unas semanas que describen un modelo “inutilizable”.

Un modelo que funcionó increíblemente bien entre marzo y junio, pero después de finales de julio, que ahora se ha publicado, lo publicó. “Tonterías absolutas“. Mostró una conversación con Gemini, resumido por el asistente, en el que no se detuvo, para reconocer los errores. Otros usuarios también muestran Prueba Comportamiento irritante como No termine ninguna respuesta.

Son solo ejemplos actuales relacionados con la IA de Google, pero incluso los modelos que fueron elogiados como Claude en diferentes momentos crítica similarincluso recientemente con Código Claude.

Sospechoso. Muchos de los usuarios que han criticado los diferentes modelos hablan de modelos de corte: “Supongo que han reducido el tamaño del modelo”. dicho Un usuario de Claude 3.5 en Hacker News. La sospecha es que las empresas usan versiones destiladas de modelos de IA que no son tan inteligentes con el tiempo y en tiempos de máxima demanda porque tienen menos recursos especiales para reaccionar ante las indicaciones.

Desarrollador de Ian Nuttal también Observó el deterioro de los códigos de ClaudeY afirmó que tendría una buena versión que nunca se reduciría o empeoraría en las horas pico. Alex Finn, también desarrollador, expresado También frustrado: “Esto me sucedió con todas las herramientas de programación de IA que usé”.

No es solo una sensación. En 2023, muchos usuarios creían que GPT-4, que en ese momento se convirtió en el modelo más avanzado en OpenAI. La compañía afirmó que en contraste con lo que la comunidad denunció, la comunidad había hecho que cada nueva versión “fuera más inteligente que la anterior”.

Sin embargo un Académico en papel Terminó con especulación: los expertos de Berkeley y Stanford verificaron una espectacular caída de precisión de GPT-4 en marzo y junio de 2023. En la programación, por ejemplo, “el porcentaje de respuestas detalladas, que se puede ejecutar directamente, se redujo en un 52.0 % en marzo del 102.0 %”. Otro Estudios estadísticos A finales de 2023, también mostraron una pérdida significativa de calidad entre diciembre y mayo.

OpenAai y antrópico confirmaron problemas. En diciembre de 2023 OpenAai conocido Que habían recibido los comentarios de que el asistente se volvió vagos. Afirmaron que no habían actualizado el modelo desde un mes antes y que no tenía la intención de reconocer el problema y explicar que “el comportamiento del modelo podría ser impredecible”.

Algunos usuarios llegaron a desarrollar métodos (y para lograrlos después de su experiencia) para alentar mejor el modelo, como la sorprendente promesa de darle un consejo al chatbot o explicar que no tenían dedos para escribir el código.

En los últimos tiempos, Antropic reconocido TechCrunch tiene problemas en el código Claude, ya que los tiempos de respuesta más lentos antes de que las quejas de los usuarios de uso limitado se abrieran sin abrir. Los usuarios que previamente han llevado a cabo tareas y no progresan ahora.

En Xataka | Intenté el día para reemplazar el navegador, el arco y poner todo en la IA. No salió como se esperaba