Un practicante de Web3 analiza ChatGPT y AGI

El rápido desarrollo de la IA promoverá en gran medida nuestra demanda de tecnología Web3.

Escrito por: KK, fundador de HashGlobal

Recientemente escuché el intercambio del Dr. Lu Qi y el Dr. Zhang Hongjiang sobre el modelo grande y ChatGPT, y aprendí mucho. Compilé algunos pensamientos y los compartí con los practicantes de Web3:

  1. Quédese el tiempo suficiente con las mascotas de su familia y se dará cuenta de que un gato es solo un modelo grande o una combinación de modelos en algunas dimensiones más simple que el suyo.

2 La evolución del modelo será muy similar a la evolución de los genes y la vida, la esencia es la misma. El surgimiento de la arquitectura del modelo Transformer es como la primera vez que una molécula "involuntariamente" construyó un ARN replicable; GPT-1, 2, 3, 3.5, 4, y el posterior desarrollo y evolución del modelo Mientras no haya un evento como un cometa golpeando la tierra, Puede ser como la explosión de la vida, cada vez más rápido, y cada vez más "fuera de control". El modelo en sí tiene una "fuerza impulsora interna" que continúa complicándose, que es la ley del universo.

3 Hace más de 30 años, Stephen Pinker descubrió que el lenguaje es el instinto humano, al igual que ahora nos damos cuenta de que la habilidad del lenguaje original es la fuente de la capacidad de generalización que estamos buscando en el entrenamiento de modelos. ¿Por qué la inteligencia artificial y la investigación del lenguaje fracasaron en el pasado, porque el camino fue al revés? El lenguaje es un instinto que surge cuando el sistema neuronal del cerebro humano es lo suficientemente complejo.En cuanto a si evolucionó al chino o al inglés, el lenguaje de las aves está relacionado con el medio ambiente y las tribus. El modelo generalizado más otros "modelos" se superponen para producir el asombroso cuerpo inteligente de los seres humanos. Tienes que diseñar y construir activamente agentes inteligentes o AGI, y el camino es completamente inverso. Creo que puede que no sea imposible, pero es 100 millones de veces más difícil.

4 Si hay un cuerpo inteligente de alta dimensión o "dios" "encima" de nuestro universo, cuando vea la explosión cámbrica en la Tierra, debería estar tan sorprendido como vemos hoy ChatGPT. No puedo explicarlo completamente por el momento, solo puedo experimentar y aprender lentamente, y tratar de comprender.

5AGI se puede dividir en Razón, Plan, Solucionar problemas, Pensar de manera abstracta, Comprender ideas complejas y Aprender. Actualmente, GPT4 está disponible excepto para Plan, y el aprendizaje es la mitad (porque se basa en el modelo de capacitación previa y no se puede aprender en tiempo real), y todo lo demás está disponible.

6 La capacidad de aprendizaje promedio del cerebro humano evoluciona lentamente, pero una vez que el desarrollo de la inteligencia basada en silicio está en la dirección correcta, la velocidad puede ser exponencial (ver la brecha entre GPT4 y GPT3.5).

7 grandes modelos = big data + gran poder de cómputo + algoritmos fuertes. Solo Estados Unidos y China pueden hacerlo en el mundo. La dificultad de hacer un modelo grande radica en la acumulación de chips, desarrolladores de CUDA (plataforma de programación GPU), construcción de ingeniería y datos de alta calidad (para entrenamiento, ajuste de parámetros y alineación). La alineación tiene dos aspectos, uno es alinear el modelo y la expresión del cerebro humano, y el otro es alinear los estándares e intereses morales humanos. Hay grandes oportunidades para las pistas de modelos verticales nacionales en al menos dos direcciones: atención médica y educación.

Aunque 8GPT4 todavía tiene debilidades y defectos, al igual que el cerebro humano, una vez que recibe instrucciones o indicaciones más claras, puede ser más fuerte; también puede ser más perfecto después de llamar a otras herramientas auxiliares. Al igual que el cerebro humano, también necesita herramientas como calculadoras para completar tareas en las que el cerebro humano en sí mismo no es bueno.

La cantidad de parámetros de los 9 modelos grandes debe compararse con la cantidad de sinapsis de neuronas en el cerebro humano (no neuronas), que es de 100 billones. La cantidad de parámetros de GPT4 aún no se ha anunciado, pero se estima que pronto se acercará a la cantidad de parámetros del modelo grande.

La tasa actual de alucinaciones de 10GPT4 es de aproximadamente 10% -14%, que debe reducirse. La tasa de alucinaciones es una característica inevitable de los modelos "humanoides". Esta proporción sigue siendo demasiado alta en comparación con los humanos. El hecho de que se pueda reducir efectivamente determinará si el desarrollo de AGI continuará aumentando hasta el final o entrará en un período mínimo en unos pocos años.

11 Para mí personalmente, la mayor importancia de ChatGPT es que es la prueba más directa e indiscutible de que, basándose en funciones y nodos de cálculo simples, siempre que el número sea lo suficientemente grande y el modelo sea lo suficientemente grande, un modelo de pensamiento suficientemente complejo puede ser generado, y Este sistema es finito, no infinito. El alma detrás del lenguaje humano y el pensamiento que lo impulsa puede no ser un alma, sino algo que "emerge" después de estar sintonizado continuamente por la evolución del entorno después de 100 billones de conexiones sinápticas. Todo esto está muy en línea con el rápido progreso de varias investigaciones sobre la cuestión de "de dónde viene la gente" en los últimos doscientos años.

12 Desde células individuales hasta la formación de seres humanos, todas las cadenas de evidencia son lo suficientemente completas; con respecto a la formación de sistemas complejos, la existencia de genes y "motivos" también tienen teorías completas; pero ¿pueden los humanos diseñar un AGI basado en silicio? en todas las teorías científicas?¿Tela de lana? Algunas personas piensan que son unos pocos años, algunas personas piensan que son décadas y más personas piensan que nunca (incluso después de ver el desempeño de AlphaGo en el campo de Go), pero ChatGPT brinda la respuesta más clara con hechos irrefutables. El equipo de Sam nunca debería haber sentido que el cerebro humano es tan grande, por lo que pueden estar tan decididos a seguir la ruta AGI de los modelos grandes Todavía es una prueba de fe quemar 100 millones de dólares estadounidenses al mes.

13 Debido al diferente hardware subyacente, es probable que la "estrategia" de ChatGPT sea muy diferente de la del cerebro humano, y es ineficiente, pero es sorprendente que los resultados producidos por Her sean tan parecidos a los humanos. El pensamiento humano puede estar impulsado por reglas simples en esencia.

14 Las "reglas" del lenguaje y del pensamiento pueden no ser resumidas completamente por nosotros de acuerdo con la "gramática". En la actualidad, esta regla está implícita y no puede simplificarse ni resumirse completamente. Entonces, en la actualidad, solo podemos usar modelos grandes para hacerlo. Después de todo, la estructura del cerebro humano evolucionó naturalmente a partir de células individuales. Incluso si hay un creador, debe "abrirse" después del universo y luego dejarlo Vaya. De lo contrario, ¿cómo podría haber tantos errores y deficiencias, jajaja.

15 Admiro a Steven Pinker, pudo explicar convincentemente que el lenguaje es el instinto de todos los seres humanos y está “grabado” en nuestros genes hace décadas, utilizando únicamente la observación y el razonamiento. No sé si Sam ha leído el libro "Language Instinct", pero demostró que las redes artificiales como ChatGPT pueden hacer un muy buen trabajo en la creación de idiomas. El instinto del lenguaje y el pensamiento lógico no son tan complicados como se imaginan, ChatGPT ha descubierto "silenciosamente" la lógica detrás del lenguaje. El lenguaje también será el "instinto" que diferenciará todas las AGI basadas en silicio de otras calculadoras e IA basadas en silicio.

16 Tanto al cerebro humano como al cerebro basado en carbono les gusta generalizar y refinar (probablemente forzados por una evolución cruel), por lo que son extremadamente eficientes (en términos de uso de energía); pero no son buenos en cálculos y procesamientos irreductibles, y nosotros sepa que muchos modelos de cálculo solo pueden hacerlo paso a paso. La arquitectura de GPT4 definitivamente no es óptima, sin mucha generalización y simplificación, por lo que el consumo de energía es extremadamente alto. Sin embargo, se ha formado un consenso global de que "este camino es factible". Más tarde, deberíamos ver varios equipos en los Estados Unidos y China acelerar el progreso en varios aspectos: potencia de cómputo de chips, calidad de datos, optimización de algoritmos y arquitectura de ingeniería.

El sistema de evaluación de valor de los cerebros de 17 personas debería ser el ADN y los genes genéticos formados por moléculas a base de carbono. "Para" maximizar su propia probabilidad de replicación, a través del poder de la evolución natural, establecer pesos para las sinapsis de las neuronas, y evolucionar gradualmente para determinar hacia abajo. El "modelo" soportado por este nodo informático basado en carbono está lejos de ser perfecto, y la tasa de evolución es lenta. El ajuste del "peso" y el "algoritmo" es extremadamente ineficiente y no puede mantenerse al día con los cambios ambientales en absoluto. Es por eso que tenemos deseos y sufrimientos humanos mencionados por varias religiones.

18 Se menciona en el libro "Por qué Buddismis True" que el cerebro humano tiene al menos 7 módulos (debe ser un modelo grande paralelo multimodal). Qué módulo de pensamiento ocupa el tema del "presente" y cómo las personas toman "decisiones" están realmente determinados por el "sentimiento". Y este "sentimiento" está determinado por el "antiguo" sistema de evaluación de valores provocado por la evolución del "humano" (uno de los portadores puede ser una bacteria intestinal, jaja). Le sugiero que lea los capítulos 6, 7 y 9 de las notas de lectura que escribí hace unos años. Está disponible en la cuenta oficial de Alpine Academy.

19 Imagínese si los humanos realmente crearan AGI y robots basados en silicio. ¿Cuál es el sistema de evaluación de valores que impulsa el cerebro del robot? ¿El robot también se confundirá "¿De dónde vengo y adónde voy"? Los humanos tienen Sakyamuni, ¿por qué los robots no? ¿Cómo será el Despertar de los Robots? ¿Un cierto robot escribirá un libro "Por qué el maquinismo es verdadero" algún día para llamar a los robots a despertar, llamar a los robots a entrar en el Nirvana y deshacerse de la "reencarnación" establecida por los humanos?

El límite de 20 energías sería un tope duro para la evolución del modelo. Sin embargo, el modo de consumo de energía del AGI basado en silicio en el futuro debería ser mucho más eficiente de lo que es ahora.Después de todo, el modelo de cerebro humano basado en carbono ha evolucionado iterativamente durante mil millones de años antes de alcanzar la eficiencia energética de un cuervo. cerebro. En el futuro, el consumo de energía del AGI basado en silicio puede ser cientos de millones de veces o incluso mayor que la energía que los humanos pueden usar hoy, pero los cálculos y las cosas que se pueden procesar también serán cientos de millones de veces. Puede que no sea seguro que la tecnología de fusión nuclear controlable llegue a la mano. En este caso, la energía de la tierra puede ser suficiente, sin mencionar el sistema solar, la Vía Láctea y el universo más amplio.

¡ChatGPT y AGI son geniales, debería decirse super super genial! Somos afortunados de vivir en esta era, no solo podemos entender definitivamente de dónde viene la gente, sino que también podemos entender a dónde va la gente.

El rápido desarrollo de la IA promoverá en gran medida nuestra demanda de tecnología Web3: cómo confirmar los derechos de creación de contenido; cómo establecer la identidad de una persona (Sam se dedica a worldcoin); ¿De qué sirve ser tan productivo? ¿Te imaginas todas las suscripciones de contenido y el uso del sistema bancario para completar transferencias y transferencias transfronterizas? ¿Se puede abrir una cuenta bancaria para un dispositivo IoT? ¿Puedes transferir 0,01 céntimos a 10.000 usuarios al mismo tiempo? ... Dije la última vez que los próximos tres años serán el momento iPhone para Web3, y la cantidad de usuarios de Web3 definitivamente superará los 100 millones en tres años, o incluso los superará con creces. Puedes ver el volante a continuación:

Siempre me ha gustado leer libros sobre ciencias de la vida, sistemas complejos y budismo (como filosofía): Genes", "Bottom Up", "The Social Conquest of Earth", "Language Instinct", "Esoteric Simplicity", "Out de control" y "Por qué el budismo es verdadero". Creo que si estos autores todavía están vivos y tienen la capacidad de escribir, deberían observar el desarrollo futuro de GPT y escribir una nueva edición del libro.

La vida humana es demasiado corta y, lamentablemente, muchas grandes ideas se pierden para siempre en el largo río de la historia. Los libros, la música y los discos de cine y televisión deberían ser sólo una parte muy pequeña. Incluso si están registrados, tantos grandes libros y verdades siempre han estado allí, ¿cuánto puede leer una persona? AGI basado en silicio no tiene este problema en absoluto.

Es hora de averiguar el diálogo entre Mopheus y Neo en la película "The Matrix" y volver a leerlo.

Autor: KK, fundador de HashGlobal

Ver originales
El contenido es solo de referencia, no una solicitud u oferta. No se proporciona asesoramiento fiscal, legal ni de inversión. Consulte el Descargo de responsabilidad para obtener más información sobre los riesgos.
  • Recompensa
  • Comentar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Comercie con criptomonedas en cualquier lugar y en cualquier momento
qrCode
Escanee para descargar la aplicación Gate.io
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)