Últimas tendencias de OpenAI: formar un nuevo equipo, apostar por la superinteligencia e inclinar el 20% de los recursos informáticos

巴比特_

¿Sigues lamentando los cambios revolucionarios provocados por la IA generativa? ¿Lamentar el poder de GPT-4? ¿Sigues adivinando qué nuevas características tendrá GPT-5? OpenAI ha visto más allá y ya está en acción.

Fuente de la imagen: Generada por Unbounded AI

El equipo de OpenAI lanzó su último movimiento ayer, formando un nuevo equipo, Superalignment, codirigido por Ilya Sutskever (cofundador y científico jefe de OpenAI) y Jan Leike (líder de alineación). Este es un equipo sobre superinteligencia, que se centra en la investigación de alineación de superinteligencia. OpenAI afirma que gastará el 20 % de sus recursos informáticos en resolver problemas de alineación superinteligente en los próximos cuatro años, lo que es suficiente para mostrar la importancia de OpenAI.

¿Qué es la Superinteligencia?

La superinteligencia se refiere a un sistema inteligente que supera la inteligencia humana. No es solo un simple programa de computadora, sino un cuerpo inteligente, que tiene las características de capacidad cognitiva, capacidad emocional, autoconciencia e intención, y puede pensar, juzgar y tomar decisiones de forma independiente. -hacer puede incluso superar la inteligencia humana hasta cierto punto. El concepto de superinteligencia es relativo al sistema de inteligencia artificial actual, se refiere a una inteligencia artificial más avanzada que se puede aplicar en una gama más amplia de campos y entornos complejos.

Actualmente, la superinteligencia sigue siendo un concepto teórico y aún no se ha realizado. Lograr la superinteligencia requiere resolver muchos problemas técnicos, incluidos los desafíos en el aprendizaje automático, el procesamiento del lenguaje natural, la visión por computadora, el razonamiento y la toma de decisiones. Además, el surgimiento de la superinteligencia también traerá muchas cuestiones éticas, sociales y políticas, como el control de la superinteligencia, la seguridad y la privacidad.

La superinteligencia es un concepto emocionante y convincente porque puede generar varias aplicaciones importantes en varios campos, como el diagnóstico médico, el desarrollo de nuevos medicamentos, el transporte inteligente, la producción automatizada y la defensa de la seguridad, etc. Al mismo tiempo, la superinteligencia también tiene algunos riesgos y desafíos: si se sale de control, puede representar una gran amenaza para los seres humanos.

Alcanzar la superinteligencia requiere resolver muchos problemas técnicos. Uno de los temas más importantes es cómo permitir que los sistemas inteligentes tengan la capacidad de aprender de forma independiente, es decir, aprender continuamente nuevos conocimientos y habilidades a partir de los datos y la experiencia, para mejorar continuamente su nivel de inteligencia. Al mismo tiempo, la superinteligencia también debe tener fuertes capacidades de razonamiento, toma de decisiones e innovación, y ser capaz de pensar de forma independiente y resolver varios problemas complejos.

“A medida que nos acercamos a la superinteligencia”, debemos pensar más en los riesgos existenciales de la IA. — Zuckerberg

¿La superinteligencia será una realidad en diez años? Al menos OpenAI piensa eso

OpenAI cree que la superinteligencia será la tecnología más impactante jamás inventada, ayudándonos a resolver muchos de los problemas más importantes del mundo. Pero el inmenso poder de una superinteligencia también puede ser muy peligroso y podría conducir a la pérdida de poder de la humanidad, o incluso a su extinción. Si bien **la superinteligencia puede parecer remota ahora, creemos que puede serlo dentro de una década. **

###

¿Cómo solucionar los riesgos de la superinteligencia?

Aunque la superinteligencia tiene una gran energía, los riesgos también son enormes. OpenAI dijo que la gestión de estos riesgos requerirá nuevas instituciones de gobierno y abordará el problema de la coordinación de la superinteligencia, es decir, ¿cómo garantizar que los sistemas de inteligencia artificial sean mucho más inteligentes que los humanos pero que también sigan las intenciones humanas?

OpenAI no dio una respuesta. Creen que los humanos no pueden supervisar de manera confiable esos sistemas de inteligencia artificial que son más inteligentes que los humanos. La tecnología de alineación actual no puede extenderse a la superinteligencia. Por lo tanto, es necesario buscar nuevos avances científicos y tecnológicos.

Sin embargo, el camino de OpenAI para resolver el problema de alineación de la superinteligencia ha sido claro, es decir, establecer un investigador de alineación automática aproximadamente al nivel humano, para mejorar la capacidad de los sistemas de inteligencia artificial para aprender de la retroalimentación humana y ayudar a los humanos a evaluar la inteligencia artificial. El objetivo es construir un sistema de IA lo suficientemente alineado como para ayudarnos a resolver todos los demás problemas de alineación.

En el último año, OpenAI ha publicado una entrada de blog que aclara su línea de investigación sobre alineación:

Superalineación del nuevo equipo de OpenAI

El equipo será un equipo de investigadores e ingenieros de aprendizaje automático de primer nivel, con el objetivo de resolver los principales desafíos técnicos de la alineación de la superinteligencia en cuatro años, desde el desarrollo de nuevos métodos hasta la ampliación de la implementación. El científico jefe de OpenAI, Ilya Sutskever, ha convertido el problema de alineación de la superinteligencia en un foco de investigación central. La alineación de superinteligencia es fundamentalmente un problema de aprendizaje automático y OpenAI está reclutando excelentes expertos en aprendizaje automático. Referencias:

Aviso legal: La información de esta página puede proceder de terceros y no representa los puntos de vista ni las opiniones de Gate. El contenido que aparece en esta página es solo para fines informativos y no constituye ningún tipo de asesoramiento financiero, de inversión o legal. Gate no garantiza la exactitud ni la integridad de la información y no se hace responsable de ninguna pérdida derivada del uso de esta información. Las inversiones en activos virtuales conllevan riesgos elevados y están sujetas a una volatilidad significativa de los precios. Podrías perder todo el capital invertido. Asegúrate de entender completamente los riesgos asociados y toma decisiones prudentes de acuerdo con tu situación financiera y tu tolerancia al riesgo. Para obtener más información, consulta el Aviso legal.
Comentar
0/400
Sin comentarios