El agente de IA ya puede reproducir de forma independiente artículos académicos complejos: Mollick afirma que los errores se deben más al texto original humano que a la IA

El profesor de la Wharton School de la Universidad de Pensilvania, Ethan Mollick, en una publicación en la plataforma X del 4/25, planteó una observación de fuerte impacto para la comunidad académica: en la actualidad, los agentes de IA ya pueden reproducir de forma independiente resultados complejos de investigación académica únicamente con descripciones de métodos y datos públicos, sin tener el artículo original ni el código original. Mollick añadió además que, cuando las versiones reproducidas por estas IAs difieren del artículo original, «los errores a menudo están en el propio texto humano, no en la IA». Esto marca un giro sustancial de la crisis de reproducibilidad en la era de la IA generativa: la verificación entre pares que antes requería personal humano costoso, ahora se completa a gran escala y con bajo costo mediante IA.

Claude reproduce múltiples artículos y luego los valida dos veces con GPT-5 Pro

En su blog OneUsefulThing y en este tuit, Mollick describió sus experimentos específicos con Claude: tomar un artículo académico y dárselo a Claude, para que abra el archivo, organice los documentos, convierta automáticamente el código STATA usado para los análisis estadísticos a Python y luego ejecute una por una todas las conclusiones del artículo. Después de que Claude termine, él vuelve a comprobar los mismos resultados de reproducción con GPT-5 Pro como segunda ronda de verificación. Varios artículos se probaron de la misma manera, y los resultados fueron generalmente exitosos, solo se vieron obstaculizados cuando los archivos de datos eran demasiado grandes o cuando el replication data original en sí tenía problemas.

Para la comunidad académica, este proceso normalmente requería que los asistentes de investigación dedicaran semanas o incluso meses. La escala de tiempo que describió Mollick es de una tarde a un día, y el costo de ejecución es únicamente el gasto de tokens del API de LLM comercial.

Más errores provienen del texto humano, no de la IA

Lo más controvertido es la evaluación de Mollick sobre «quién se equivoca». En su tuit, dejó claro que cuando los resultados reproducidos por IA no coinciden con el artículo original, en la mayoría de los casos no es que la IA se equivoque, sino que el artículo original tiene errores en el procesamiento de datos, un uso incorrecto del modelo, o que las conclusiones exceden el alcance de lo que los datos respaldan. En los últimos diez años, en ciencias sociales como la psicología, la economía conductual y la administración ya se han presentado varias crisis importantes de reproducibilidad; la más famosa es el gran estudio de reproducción de Open Science Collaboration de 2015, donde solo alrededor del 36% de los resultados de los artículos de psicología pudieron reproducirse de forma independiente. Los agentes de IA llevan este proceso de verificación de la frontera de «requerir ajustes humanos» a la de «poder ejecutarse de manera universal».

Aprender sigue prohibiendo la IA en el arbitraje; el sistema va rezagado frente a la tecnología

En otro tuit del 4/25, Mollick señaló de forma concreta que la mayor asociación de su campo, Academy of Management, todavía prohíbe explícitamente que la IA entre en el proceso de revisión de artículos. Citó estudios existentes que indican que la revisión con IA ya es superior a la de algunos revisores humanos tradicionales en precisión, consistencia y control de sesgos; por lo tanto, la postura de «prohibir» podría terminar agravando el fallo de los sistemas de revisión existentes. La brecha entre este tipo de institución y la tecnología es una cuestión de políticas que los próximos 1–2 años la industria editorial académica, las asociaciones y las entidades financiadoras tendrán que afrontar.

Para los lectores, este debate no se limita a la academia. Cuando un agente de IA puede verificar en tiempo real los hallazgos de investigación, las citas de investigación en la industria, los informes de políticas y los fundamentos académicos en decisiones financieras entrarán en un nuevo umbral de verificación: «si las conclusiones resisten o no una reproducción independiente mediante IA». En línea con la aclaración en otro tuit de Mollick, él considera que el gobierno es la única entidad capaz de fijar el ancla para este tipo de verificación cuando la intensidad de las herramientas sigue aumentando; y, a la par, la complejidad del diseño de políticas se convertirá en un eje relativamente pasado por alto dentro de las discusiones sobre la gobernanza de la IA.

Este artículo indica que el agente de IA ya puede reproducir de forma independiente artículos académicos complejos: Mollick afirma que los errores provienen en gran medida del texto humano y no de la IA; apareció por primera vez en Cadena Noticias ABMedia.

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.

Artículos relacionados

OpenAI 招揽顶级企业软件人才,前沿代理颠覆行业

Gate News 消息,4 月 26 日——OpenAI 和 Anthropic 一直在从包括 Salesforce、Snowflake、Datadog 和 Palantir 在内的主要企业软件公司招募高管和专业工程师。Denise Dresser,前 Salesforce 下属 Slack 的首席执行官,加入 OpenAI 担任首席营收官

GateNewshace9h

Worxphere renombra JobKorea con herramientas de contratación impulsadas por IA

Mensaje de Gate News, 26 de abril — La plataforma de RR. HH. de Corea del Sur Worxphere ha renombrado JobKorea mientras realiza la transición de los tradicionales portales de empleo en línea a soluciones de contratación impulsadas por IA. La empresa está consolidando servicios, incluidos JobKorea y Albamon, en una plataforma unificada que abarca el empleo permanente,

GateNewshace20h

Los EAU anuncian un cambio hacia un modelo de gobierno basado en IA en los próximos dos años

Su Alteza el Jeque Mohammed bin Rashid Al Maktoum declaró que el objetivo era que el 50% de los sectores gubernamentales operaran a través de IA agentica autónoma. La transición también incluirá la formación de los empleados federales para “dominar la IA” y estará supervisada por el Jeque Mansour bin Zayed. Puntos Clave:

Coinpedia04-25 08:39

Plataforma de trading de IA Fere AI recauda $1.3M en financiación liderada por Ethereal Ventures

Mensaje de Gate News, 25 de abril — Fere AI, una plataforma de comercio de activos digitales impulsada por IA, anunció la finalización de una ronda de financiación de $1.3 millones liderada por Ethereal Ventures, con la participación de Galaxy Vision Hill y Kosmos Ventures, según Globenewswire. La plataforma admite redes de cadena cruzada

GateNews04-25 07:46

Nvidia在Blackwell基础设施上将OpenAI Codex AI代理部署至全体员工

消息快报,4月25日——据首席执行官Jensen Huang和OpenAI首席执行官Sam Altman的内部沟通内容,Nvidia已在成功试点后,将OpenAI的Codex这一由GPT-5.5驱动的AI代理面向其全体员工部署,试点约涉及10,000名员工。 Codex旨在用于

GateNews04-25 03:11

La startup de codificación con IA Cognition conversa sobre una ronda de financiación con valoración de $25B

Mensaje de Gate News, 25 de abril — La startup de codificación con IA Cognition está en conversaciones iniciales para recaudar cientos de millones de dólares o más, aproximadamente con una valoración de $25 mil millones, según personas familiarizadas con el asunto. El interés ha aumentado tras la adquisición por parte de SpaceX de una startup rival de codificación con IA. Co

GateNews04-25 02:51
Comentar
0/400
Sin comentarios