Se revela que “Claude pierde capacidad” no es un mito urbano; el modelo de IA es inestable y representa un riesgo empresarial

Después de que la IA se convirtiera en un equipo estándar para las empresas, un fenómeno que en el pasado se consideraba un “problema de percepción” está saliendo rápidamente a la superficie: los LLM (modelos de lenguaje a gran escala) se están “volviendo más tontos”. El usuario de la red Wisely Chen señaló que el llamado “degradarse la inteligencia de los LLM” no es un mito urbano, sino que ya puede rastrearse de forma continua mediante datos, y que está generando efectos reales en los flujos de trabajo empresariales.

Puso como ejemplo su propia experiencia: el 15 de abril, los servicios de la serie Claude de Anthropic sufrieron una degradación generalizada, incluyendo claude.ai, la API y Claude Code, que mostraban “Degraded Performance”. Esto no es simplemente que fuera más lento o un error ocasional, sino que la calidad de las respuestas se desplomó de forma evidente, e incluso hubo casos en los que no se podía usar correctamente, lo que hizo que sus tres tareas de desarrollo del día se retrasaran por completo.

Estas situaciones para los desarrolladores individuales tal vez signifiquen solo una caída de eficiencia, pero para los equipos de TI de las empresas el impacto se multiplica. Cuando un equipo tiene varios ingenieros que dependen al mismo tiempo de herramientas de IA para programar, redactar documentos y automatizar procesos, una degradación del modelo en un solo momento implica que la productividad total disminuya colectivamente en el mismo periodo, convirtiéndose así en una pérdida considerable de tiempo y costos.

¿La IA se siente más tonta? Los datos confirman que “ya se degradó”

Wisely Chen señaló que “GPT se volvió más tonto”, “Claude no es como antes” y otras afirmaciones que han circulado por la comunidad durante mucho tiempo carecían de respaldo de datos objetivos. Solo hasta que recientemente surgieron plataformas que monitorean de manera continua la calidad del modelo, este fenómeno se cuantificó por primera vez.

Entre ellas, StupidMeter realiza pruebas automatizadas de 24 horas a modelos principales como OpenAI, Anthropic, Google, etc., haciendo seguimiento de indicadores como exactitud, capacidad de razonamiento y estabilidad. A diferencia de los benchmark tradicionales de una sola vez, estos sistemas se parecen más a la manera en que las empresas monitorean APIs o la disponibilidad de servicios: observan las fluctuaciones del desempeño del modelo en entornos de uso reales.

Los resultados son bastante directos: actualmente, la mayoría de los modelos principales se encuentran en estado de advertencia o degradación, y solo unos pocos mantienen un funcionamiento normal. Esto significa que la calidad del modelo es inestable; no es un problema de un producto único, sino un fenómeno generalizado en toda la industria.

LLM, baja la inteligencia “sin avisar”, afecta la estabilidad de los flujos de trabajo de la IA en las empresas

Para las empresas, este tipo de cambios significa que la IA deja de ser “una herramienta para mejorar la eficiencia” y pasa a ser una “variable que afecta la estabilidad”. Si los flujos de trabajo diarios de una empresa —desde escribir código, hacer code review, hasta producir documentos e informes de análisis— ya dependen en gran medida de LLM, entonces cuando un modelo presenta una caída de la capacidad de razonamiento o una merma en la calidad de las respuestas en un día, estos problemas no ocurren de forma localizada como los fallos (bugs) de software tradicionales, sino que se infiltran simultáneamente en todos los aspectos donde se usa IA.

Lo más importante es que estas fluctuaciones a menudo son difíciles de predecir y difíciles de detectar de inmediato. La mayoría de las empresas no cuenta con mecanismos para monitorear continuamente la calidad del modelo; normalmente solo se dan cuenta de que el problema proviene del propio modelo cuando los resultados son anómalos o cuando baja la eficiencia del equipo. En este contexto, el “degradarse la inteligencia” deja de ser solo una percepción subjetiva de los usuarios y se convierte en un riesgo sistémico que afecta directamente el ritmo de operación de la empresa.

Cuando la IA se convierte en electricidad y agua, la estabilidad pasa a ser el nuevo indicador clave

Wisely Chen compara el papel de los LLM con “la electricidad y el agua de la empresa moderna”. Cuando la IA se ha integrado en la operación diaria y se convierte en una capacidad básica indispensable, la importancia de la estabilidad también aumenta en consecuencia.

En el pasado, al evaluar herramientas de IA, las empresas se enfocaban principalmente en la capacidad del modelo, el precio y las funciones, pero a medida que surge el fenómeno de “degradarse la inteligencia”, aparece otro indicador aún más crucial: la estabilidad. Cuando la calidad del modelo puede cambiar sin previo aviso, las empresas ya no solo “usan IA”, sino que tienen que asumir un nuevo tipo de riesgo para la infraestructura básica. Lo más desesperanzador es que, si solo se miran los modelos de lenguaje grandes de vanguardia, básicamente mientras no se resuelva el problema de la capacidad de cómputo, es posible que siga ocurriendo.

Este artículo Datos revelan que “Claude se degradó” no es un mito urbano; los modelos de IA inestables se convierten en un riesgo para las empresas; apareció por primera vez en CadenaNews ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

¿Por qué una buena noticia de Intel impulsa una fuerte subida de las acciones de Nvidia?

Las ganancias por acción (EPS) de Intel en este trimestre fueron de 0,29 USD y los ingresos de 13.600 millones de USD, ambos superaron las expectativas; el impulso de las actualizaciones en centros de datos y equipos de cómputo se ha recuperado, impulsando la confianza en la demanda de semiconductores y de IA. Esta buena noticia hizo que el precio de las acciones de Nvidia subiera alrededor de un 4,9% al mediodía; el mercado considera que la demanda de capacidad informática subyacente sigue siendo sólida, reduce la preocupación por una posible “burbuja” de la IA y respalda las expectativas de crecimiento a largo plazo de Nvidia. La competencia entre ambas también se refleja en una sincronización positiva de sectores.

ChainNewsAbmediaHace58m

China y EE. UU. se enfrentan en un pulso de IA por acusaciones de destilación de modelos y restricciones de inversión

Mensaje de Gate News, 24 de abril — China ha rechazado las acusaciones de EE. UU. de que sus gigantes tecnológicos están aprovechando la tecnología de IA estadounidense mediante destilación a escala industrial, mientras ambos países se preparan para un choque importante por el desarrollo de la IA y el control de las inversiones. La administración de Trump está preparando una

GateNewshace3h

Alphabet invertirá hasta $40 mil millones en Anthropic, impulsando la competencia en IA

Mensaje de Gate News, 24 de abril — Alphabet, la empresa matriz de Google, planea invertir hasta $40 mil millones en el desarrollador de IA Anthropic, que comprende $10 mil millones de desembolso inicial y $30 mil millones en financiación adicional sujeta a lograr ciertos hitos de rendimiento. Esta inversión sigue a la participación previa del 14% de Alphabet en Anthropic y

GateNewshace4h

El regulador suizo FINMA advierte que la herramienta de IA Mythos de Anthropic plantea riesgos financieros

Mensaje de Gate News, 24 de abril — la Autoridad de Supervisión de los Mercados Financieros de Suiza (FINMA) ha declarado que permitir que los bancos adopten rápida y cómodamente la herramienta de inteligencia artificial de Anthropic Mythos supondría riesgos graves para el

GateNewshace5h

Nvidia recupera una capitalización de mercado de $5 billones y alcanza un nuevo máximo histórico de cierre

Mensaje de Gate News, 24 de abril — Nvidia subió 4,2% el viernes, recuperando un valor de mercado por encima de $5 billones y cerrando en $208 por acción, un récord histórico de cierre. La subida en un solo día añadió más de $200 mil millones a la capitalización de mercado de la empresa de chips, y la acción alcanzó un máximo intradía de aproximadamente $5.

GateNewshace6h

DeepSeek V4 以 1M 上下文窗口发布;华为 Ascend 与昆仑芯片实现完全兼容

Gate 新闻消息,4月24日——DeepSeek V4-Pro 和 DeepSeek V4-Flash 已于 4月24日正式发布并开源;上下文处理长度从 128K 显著扩展至 1M,容量提升接近 10 倍。华为计算宣布其 Ascend 超级节点

GateNewshace6h
Comentar
0/400
Sin comentarios