El CEO de DeepMind lamenta que la comercialización de la IA sea demasiado rápida: si se hubieran quedado unos años más en el laboratorio, la humanidad podría haber superado el cáncer

El CEO de DeepMind de Google, Hassabis, lamenta que la competencia en IA sea demasiado apresurada; si la tecnología pudiera perfeccionarse en el laboratorio durante unos años más, quizás la humanidad ya habría conquistado el cáncer.

La IA está cambiando rápidamente a la humanidad, con nuevas tecnologías y herramientas surgiendo cada pocas semanas o incluso días, pero uno de los protagonistas principales de esta ola, el CEO de DeepMind y ganador del Premio Nobel de Química en 2024, Demis Hassabis, cree que el ritmo de competencia en IA es demasiado acelerado; si él tuviera la autoridad, la IA podría pasar más años en el laboratorio, y quizás ya habríamos superado el cáncer.

Hassabis compartió esta reflexión sobre el desarrollo actual de la IA en el podcast del periodista de video Cleo Abram. En una entrevista pasada con la revista Time, se definió a sí mismo como un científico, enfatizando que toda exploración en IA busca el conocimiento y la comprensión del mundo.

Mencionó que su motivación para ingresar al campo de la IA no fue crear chatbots, sino acelerar los descubrimientos científicos. Su logro más conocido es AlphaFold, un sistema que resolvió el “problema del plegamiento de proteínas”, que había desconcertado a la biología durante 50 años. Hassabis señala que esto benefició a más de 3 millones de científicos en todo el mundo, especialmente en investigaciones sobre enfermedades como la malaria, donde la IA proporciona bases de datos estructurales gratuitas, permitiendo a los investigadores saltarse experimentos básicos y avanzar directamente en el desarrollo de medicamentos.

Fuente de la imagen: YouTube. Los logros de AlphaFold han hecho que Hassabis sea uno de los galardonados con el Nobel.

Él opina que, si la IA pudiera permanecer en el laboratorio unos años más, concentrándose en estos problemas clave, la humanidad quizás ya habría logrado avances decisivos en el tratamiento del cáncer o en la ciencia de materiales.

Las tecnologías más avanzadas llegan a las masas en meses, pero a costa de perder recursos en problemas críticos

En la entrevista, Hassabis describe su visión ideal para el desarrollo de la IA, lo que él llama el “modelo CERN”. Desea que el proceso de desarrollar inteligencia artificial general sea como la operación del Gran Colisionador de Hadrones (LHC) en CERN: con rigor, cautela y un método científico cuidadosamente pensado, asegurando que cada paso se comprenda completamente antes de avanzar.

Sin embargo, la realidad se ha desviado de ese guion ideal. A finales de 2022, la popularidad de ChatGPT y los avances en IA generativa desencadenaron una competencia comercial caótica a nivel global. Hassabis admite que esta situación ha acelerado la implementación de la tecnología, permitiendo que tecnologías avanzadas lleguen en meses a las masas, pero también que los problemas más críticos pierdan recursos.

Para ganar mercado y liderazgo tecnológico, el ritmo de desarrollo se ha visto obligado a acelerarse. Hassabis confiesa que ya no pueden seguir el ritmo que soñaba hace años, con un desarrollo cauteloso y filosófico, evaluando cada paso con cuidado.

Aunque los chatbots de IA son útiles para resúmenes y brainstorming, en esencia aún presentan defectos como las alucinaciones, y la presión comercial ha llevado a que estos productos experimentales se lancen rápidamente al mercado. Esto ha provocado que gran parte de la investigación y recursos se destinen a modelos base universales que buscan satisfacer el uso masivo.

Para equilibrar la realidad con la visión, Hassabis adopta una postura más pragmática: liderar el desarrollo de productos de IA para consumidores, como Gemini de Google, y también invertir en IA aplicada (Narrow AI). Cree que no es necesario esperar a la IA general; sistemas especializados como AlphaFold ya permiten a la humanidad obtener beneficios concretos en energía, ciencia de materiales y medicina.

AlphaGo y la revelación de la capacidad de la IA para superar la mente humana

La confianza de Hassabis en la IA se basa en gran medida en la partida de 2016 entre AlphaGo y el campeón surcoreano Lee Sedol, que sorprendió al mundo. En ese juego, AlphaGo realizó la famosa “jugada 37”, que en su momento fue criticada por parecer una jugada que ningún humano haría, pero que finalmente llevó a la victoria de AlphaGo.

Fuente: gogameguru.com. La jugada de AlphaGo, que parecía estar fuera del marco de experiencia humana, fue vista por Hassabis como una posible ruptura en el pensamiento humano por parte de la IA.

De esa señal, Hassabis dedujo que la IA ya posee la capacidad de ir más allá de la experiencia humana, buscando soluciones completamente nuevas. Quiere aplicar esa creatividad que trasciende la mente humana en el campo científico.

AlphaFold es la mejor manifestación de ese pensamiento. Los métodos tradicionales requieren decenas de miles de dólares y años para resolver la estructura de una sola proteína, pero AlphaFold 2 ya predijo casi 200 millones de estructuras proteicas conocidas en la ciencia.

Ahora, Hassabis lidera un equipo en la frontera del descubrimiento de fármacos, donde los métodos tradicionales toman unos 10 años y solo tienen un 10% de éxito. Creó Isomorphic Labs, que usa AlphaFold 3 y modelos posteriores para realizar “cribado virtual”: en minutos, puede simular millones de combinaciones de compuestos y proteínas, verificando si causan toxicidad en más de 20,000 proteínas humanas, eliminando en la fase de simulación la mayoría de las combinaciones fallidas y solo enviando los candidatos más prometedores al laboratorio para su validación.

Preocupaciones sobre los riesgos potenciales de la IA

Sin embargo, a medida que la tecnología de IA avanza y entra en la era de los agentes de IA, las preocupaciones de Hassabis se vuelven más concretas. Resume los riesgos en dos categorías principales: la primera, los “actores malintencionados” (Bad Actors), que pueden ser individuos o naciones que usen tecnologías originalmente destinadas a curar enfermedades o desarrollar nuevos materiales con fines dañinos.

La segunda, más de ciencia ficción pero con base en la realidad, es la amenaza de que la IA “se descontrole” (Going rogue). Cuando los sistemas se vuelven extremadamente inteligentes y autónomos, garantizar que cumplan con los objetivos humanos sin saltarse las barreras de seguridad es un desafío técnico sumamente difícil.

Frente a estos desafíos, Hassabis llama a las principales instituciones de investigación en IA, gobiernos y academia a establecer mecanismos de cooperación internacional, enfatizando que en la última milla hacia la AGI (inteligencia artificial general), se requiere más investigación en seguridad.

Aunque lamenta que la IA no haya permanecido más tiempo en el laboratorio, Hassabis mantiene una actitud optimista para los próximos 50 años. Ve la IA ayudando a la humanidad a resolver la fusión nuclear, descubrir superconductores a temperatura ambiente, e incluso reducir a cero los costos energéticos del viaje espacial. Para él, la IA no es solo una tecnología, sino un microscopio para explorar las verdades del mundo; sin importar cuál sea la respuesta, desea conocer la verdad.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado