Um praticante do Web3 examina o ChatGPT e o AGI

O rápido desenvolvimento da IA promoverá muito nossa demanda por tecnologia Web3.

Escrito por: KK, fundador da HashGlobal

Recentemente, ouvi o compartilhamento do Dr. Lu Qi e do Dr. Zhang Hongjiang no modelo grande e no ChatGPT, e ganhei muito. Eu compilei alguns pensamentos e compartilhei com os praticantes do Web3:

  1. Fique bastante tempo com os animais de estimação da sua família e perceberá que um gato é apenas um modelo grande ou uma combinação de modelos em algumas dimensões mais simples que o seu.

2 A evolução do modelo será muito semelhante à evolução dos genes e da vida, a essência é a mesma. O surgimento da arquitetura do modelo Transformer é como a primeira vez que uma molécula "involuntariamente" construiu um RNA replicável; GPT-1, 2, 3, 3.5, 4 e o subsequente desenvolvimento e evolução do modelo, desde que não haja nenhum evento como um cometa atingindo a Terra, pode ser como a explosão da vida, cada vez mais rápida, e cada vez mais "fora de controle". O próprio modelo tem uma “força motriz interna” que continua a complicar, que é a lei do universo.

3 Há mais de 30 anos, Stephen Pinker descobriu que a linguagem é um instinto humano, assim como agora percebemos que a capacidade de linguagem original é a fonte da capacidade de generalização que buscamos no treinamento de modelo. Por que a pesquisa de inteligência artificial e linguagem falhou no passado, porque o caminho foi invertido! A linguagem é um instinto que surge quando o sistema de neurônios do cérebro humano é suficientemente complexo.Se evoluiu para o chinês ou para o inglês, a linguagem dos pássaros está relacionada ao meio ambiente e às tribos. O modelo generalizado mais outros "modelos" são sobrepostos para produzir o incrível corpo inteligente dos seres humanos. Você tem que projetar e construir ativamente agentes inteligentes ou AGI, e o caminho é completamente inverso. Acho que pode não ser impossível, mas é 100 milhões de vezes mais difícil.

4 Se houver um corpo inteligente de alta dimensão ou "deus" "no topo" de nosso universo, ele deve ficar tão surpreso ao ver a explosão do Cambriano na Terra quanto vemos o ChatGPT hoje. Não posso explicá-lo totalmente por enquanto, só posso experimentar e aprender lentamente e tentar entender.

5AGI pode ser desmontado em Raciocinar, Planejar, Resolver Problemas, Pensar Abstratamente, Compreender Ideias Complexas e Aprender. Atualmente, GPT4 está disponível, exceto o Plan, e o Learning é metade dele (porque é baseado no modelo de pré-treinamento e não pode ser aprendido em tempo real) e todo o resto está disponível.

6 A capacidade média de aprendizado do cérebro humano evolui lentamente, mas uma vez que o desenvolvimento da inteligência baseada em silício está na direção certa, a velocidade pode ser exponencial (veja a lacuna entre GPT4 e GPT3.5).

7 grandes modelos = big data + grande poder de computação + algoritmos fortes. Só os Estados Unidos e a China podem fazer isso no mundo. A dificuldade de fazer um modelo grande está no acúmulo de chips, desenvolvedores CUDA (plataforma de programação GPU), construção de engenharia e dados de alta qualidade (para treinamento, ajuste de parâmetros e alinhamento). O alinhamento tem dois aspectos, um é alinhar o modelo e a expressão do cérebro humano e o outro é alinhar os padrões e interesses morais humanos. Existem grandes oportunidades para modelos verticais domésticos em pelo menos duas direções: assistência médica e educação.

Embora o 8GPT4 ainda tenha fraquezas e deficiências, assim como o cérebro humano, uma vez que recebe instruções ou prompts mais claros, pode ser mais forte; também pode ser mais perfeito depois de chamar outras ferramentas auxiliares. Assim como o cérebro humano também precisa de ferramentas como calculadoras para concluir tarefas nas quais o próprio cérebro humano não é bom.

O número de parâmetros dos 9 grandes modelos deve ser comparado com o número de sinapses de neurônios no cérebro humano (não neurônios), que é de 100 trilhões. A quantidade de parâmetros do GPT4 ainda não foi anunciada, mas estima-se que a quantidade de parâmetros do modelo grande será abordada em breve.

A taxa atual de alucinação de 10GPT4 é de cerca de 10% a 14%, que deve ser reduzida. A taxa de alucinação é uma característica inevitável dos modelos "humanóides". Essa proporção ainda é muito alta em comparação com os humanos. Se ele pode ser efetivamente reduzido, determinará se o desenvolvimento de AGI continuará a aumentar ou entrará em um período de baixa em alguns anos.

11 Para mim, pessoalmente, o maior significado do ChatGPT é que é a prova mais direta e indiscutível de que, com base em nós e funções de cálculo simples, desde que o número seja grande o suficiente e o modelo seja grande o suficiente, um modelo de pensamento suficientemente complexo pode ser gerado, e Este sistema é finito, não infinito. Pode não haver uma alma por trás da linguagem humana e do pensamento que a impulsiona, pode ser algo que "surge" após ser continuamente sintonizado pela evolução do ambiente após 100 trilhões de conexões sinápticas. Tudo isso está muito de acordo com o rápido progresso de várias pesquisas sobre a questão de "de onde vêm as pessoas" nos últimos duzentos anos.

12 De células únicas à formação de seres humanos, todas as cadeias de evidências são suficientemente completas; em relação à formação de sistemas complexos, a existência de genes e "motivos" também têm teorias completas; mas os humanos podem projetar um AGI baseado em silício em todas as teorias científicas?Tecido de lã? Algumas pessoas pensam que são alguns anos, algumas pessoas pensam que são décadas e mais pessoas pensam que nunca (mesmo depois de ver o desempenho do AlphaGo no campo do Go), mas o ChatGPT dá a resposta mais clara com fatos de ferro. A equipe de Sam nunca deveria ter sentido que o cérebro humano é tão bom, então eles podem estar tão determinados a seguir a rota AGI de grandes modelos. Ainda é um teste de fé gastar 100 milhões de dólares americanos por mês.

13 Devido ao hardware subjacente diferente, a "estratégia" do ChatGPT provavelmente é muito diferente do cérebro humano e é ineficiente, mas é surpreendente que os resultados produzidos por Her sejam tão semelhantes aos humanos. O pensamento humano pode ser conduzido por regras simples em essência.

14 As "regras" da linguagem e do pensamento podem não ser completamente resumidas por nós de acordo com a "gramática".No momento, essa regra está implícita e não pode ser completamente simplificada e resumida. Então, no momento, só podemos usar modelos grandes para fazer isso. Afinal, a estrutura do cérebro humano é naturalmente desenvolvida a partir de células únicas. Mesmo que haja um criador, ele deve ser "aberto" após o universo e, em seguida, deixá-lo ir. Caso contrário, como poderia haver tantos? bugs e deficiências, lol.

15 Admiro Steven Pinker, ele conseguiu explicar de forma convincente que a linguagem é o instinto de todos os seres humanos e está "gravada" em nossos genes décadas atrás, usando apenas observação e raciocínio. Não sei se Sam leu o livro "Language Instinct", mas ele provou que redes artificiais como o ChatGPT podem fazer um trabalho muito bom na criação de idiomas. O instinto da linguagem e o pensamento lógico não são tão complicados quanto se imagina. O ChatGPT descobriu "silenciosamente" a lógica por trás da linguagem. A linguagem também será o "instinto" que diferencia todas as AGIs baseadas em silício de outras calculadoras e AIs baseadas em silício.

16 Tanto o cérebro humano quanto o cérebro baseado em carbono gostam de generalizar e refinar (provavelmente forçados pela evolução cruel), então eles são extremamente eficientes (em termos de uso de energia); mas eles não são bons em cálculos e processamentos irredutíveis, e nós saiba que muitos modelos de cálculo talvez só consigam fazer passo a passo. A arquitetura do GPT4 definitivamente não é ótima, sem muita generalização e simplificação, então o consumo de energia é extremamente alto. No entanto, formou-se um consenso global de que "este caminho é viável". Mais tarde, devemos ver várias equipes nos Estados Unidos e na China acelerarem o progresso em vários aspectos: poder de computação de chip, qualidade de dados, otimização de algoritmo e arquitetura de engenharia.

O sistema de avaliação de valor dos cérebros de 17 pessoas deveria ser o DNA e os genes genéticos formados por moléculas à base de carbono. "Para" maximizar sua própria probabilidade de replicação, através do poder da evolução natural, defina pesos para as sinapses dos neurônios, e evoluir gradualmente para determinar para baixo. O "modelo" suportado por este nó de computação baseado em carbono está longe de ser perfeito e a taxa de evolução é lenta. O ajuste de "peso" e "algoritmo" é extremamente ineficiente e não consegue acompanhar as mudanças ambientais. É por isso que temos desejos e sofrimentos humanos mencionados por várias religiões.

18 É mencionado no livro "WhyBuddismis True" que o cérebro humano tem pelo menos 7 módulos (deve ser um grande modelo paralelo multimodal). Qual módulo de pensamento ocupa o assunto do "presente" e como as pessoas tomam "decisões" são realmente determinadas pelo "sentimento". E esse "sentimento" é determinado pelo "antigo" sistema de avaliação de valores trazido pela evolução do "humano" (um dos portadores pode ser bactéria intestinal, haha). Sugiro que você leia os capítulos 6, 7 e 9 das notas de leitura que escrevi há alguns anos. Está disponível na conta oficial da Alpine Academy.

19 Imagine se os humanos realmente criassem AGI e robôs baseados em silício. Qual é o sistema de avaliação de valor que impulsiona o cérebro do robô? O robô também ficará confuso "De onde vim e para onde vou"? Os humanos têm Sakyamuni, por que os robôs não podem? Como será o Despertar dos Robôs? Um certo robô escreverá um livro "Por que o maquinismo é verdadeiro" um dia para pedir que os robôs despertem, peça que os robôs entrem no Nirvana e se livrem da "reencarnação" estabelecida pelos humanos?

O limite de energia de 20 seria um limite rígido para a evolução do modelo. No entanto, o modo de consumo de energia do AGI baseado em silício no futuro deve ser muito mais eficiente do que é agora. Afinal, o modelo do cérebro humano baseado em carbono evoluiu iterativamente por um bilhão de anos antes de atingir a eficiência energética de um corvo. cérebro. No futuro, o consumo de energia do AGI baseado em silício pode ser centenas de milhões de vezes ou até maior do que a energia que os humanos podem usar hoje, mas os cálculos e as coisas que podem ser processadas também serão centenas de milhões de vezes. Pode não ser certo que a tecnologia de fusão nuclear controlável esteja disponível. Nesse caso, a energia da Terra pode ser suficiente, sem falar no sistema solar, na Via Láctea e no universo mais amplo.

ChatGPT e AGI são ótimos, deve-se dizer super super ótimos! Temos a sorte de viver nesta era, não apenas podemos entender definitivamente de onde as pessoas vêm, mas também podemos entender para onde as pessoas estão indo.

O rápido desenvolvimento da IA promoverá muito nossa demanda por tecnologia Web3: como confirmar os direitos de criação de conteúdo; como estabelecer a identidade humana (Sam está envolvido em worldcoin); e se o código-fonte aberto pode ser transformado em uso autorizado NFT; O que é o uso de ser tão produtivo? Você pode imaginar todas as assinaturas de conteúdo e usar o sistema bancário para concluir transferências e transferências internacionais? Você pode abrir uma conta bancária para um dispositivo IoT? Você pode transferir 0,01 centavos para 10.000 usuários ao mesmo tempo? ...Eu disse da última vez que os próximos três anos serão o momento do iPhone para o Web3, e o número de usuários do Web3 definitivamente ultrapassará 100 milhões em três anos, ou até excederá em muito. Você pode ver o volante abaixo:

Sempre gostei de ler livros sobre ciências da vida, sistemas complexos e budismo (como filosofia). Genes", "Bottom Up", "The Social Conquest of Earth", "Language Instinct", "Esoteric Simplicity", "Out of Controle" e "Por que o budismo é verdadeiro". Acho que se esses autores ainda estiverem vivos e tiverem a capacidade de escrever, eles deveriam observar o futuro desenvolvimento do GPT e escrever uma nova edição do livro.

A vida humana é muito curta e muitas grandes ideias infelizmente se perdem para sempre no longo rio da história. Livros, música e discos de cinema e televisão devem ser apenas uma parte muito pequena. Mesmo que registrados, tantos grandes livros e verdades sempre estiveram lá, quanto uma pessoa pode ler? A AGI baseada em silício não tem esse problema.

É hora de descobrir o diálogo entre Mopheus e Neo no filme "The Matrix" e lê-lo novamente.

Autor: KK, fundador da HashGlobal

Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
  • Recompensa
  • Comentário
  • Compartilhar
Comentário
0/400
Sem comentários
  • Marcar
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate.io
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • ไทย
  • Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)