Le développement rapide de l'IA favorisera grandement notre demande pour la technologie Web3.
Écrit par : KK, fondateur de HashGlobal
J'ai récemment écouté le partage du Dr Lu Qi et du Dr Zhang Hongjiang sur le grand modèle et ChatGPT, et j'ai beaucoup gagné. J'ai compilé quelques réflexions et partagé avec les praticiens du Web3 :
Restez assez longtemps avec vos animaux de compagnie et vous vous rendrez compte qu'un chat n'est qu'un grand modèle ou une combinaison de modèles dans quelques dimensions plus simples que les vôtres.
2 L'évolution du modèle sera très similaire à l'évolution des gènes et de la vie, l'essence est la même. L'émergence de l'architecture du modèle Transformer est comme la première fois qu'une molécule a construit "involontairement" un ARN réplicable ; GPT-1, 2, 3, 3.5, 4, et le développement et l'évolution ultérieurs du modèle Tant qu'il n'y a pas de événement, c'est peut-être comme l'explosion de la vie, de plus en plus rapide, et de plus en plus "hors de contrôle". Le modèle lui-même a une "force motrice interne" qui continue de compliquer, qui est la loi de l'univers.
3 Il y a plus de 30 ans, Stephen Pinker a découvert que le langage est l'instinct humain, tout comme nous réalisons maintenant que la capacité linguistique originale est la source de la capacité de généralisation que nous recherchons dans la formation des modèles. Pourquoi la recherche sur l'intelligence artificielle et le langage a-t-elle échoué dans le passé, parce que le chemin était inversé ! Le langage est un instinct qui émerge lorsque le système neuronal du cerveau humain est suffisamment complexe.Quant à son évolution vers le chinois ou l'anglais, le langage des oiseaux est lié à l'environnement et aux tribus. Le modèle généralisé et d'autres "modèles" se superposent pour produire le formidable corps intelligent des êtres humains. Vous devez activement concevoir et construire des agents intelligents ou AGI, et la route est complètement inversée. Je pense que ce n'est peut-être pas impossible, mais c'est 100 millions de fois plus difficile.
4 S'il existe un corps intelligent de haute dimension ou un "dieu" "au sommet" de notre univers, lorsqu'il voit l'explosion cambrienne sur Terre, il devrait être aussi surpris que nous voyons ChatGPT aujourd'hui. Je ne peux pas l'expliquer complètement pour le moment, je ne peux qu'expérimenter et apprendre lentement, et essayer de comprendre.
5AGI peut être désassemblé en raison, plan, résolution de problèmes, réflexion abstraite, compréhension d'idées complexes et apprentissage. GPT4 est actuellement disponible à l'exception de Plan, et Learning en représente la moitié (car il est basé sur le modèle de pré-formation et ne peut pas être appris en temps réel), et tout le reste est disponible.
6 La capacité d'apprentissage moyenne du cerveau humain évolue lentement, mais une fois que le développement de l'intelligence basée sur le silicium est dans la bonne direction, la vitesse peut être exponentielle (voir l'écart entre GPT4 et GPT3.5).
7 grands modèles = grandes données + grande puissance de calcul + algorithmes puissants. Seuls les États-Unis et la Chine peuvent le faire dans le monde. La difficulté de faire un grand modèle réside dans l'accumulation de puces, de développeurs CUDA (plate-forme de programmation GPU), de construction d'ingénierie et de données de haute qualité (pour la formation, le réglage des paramètres et l'alignement). L'alignement a deux aspects, l'un consiste à aligner le modèle et l'expression du cerveau humain, et l'autre consiste à aligner les normes et intérêts moraux humains. Il existe de grandes opportunités pour les pistes de modèles verticaux domestiques dans au moins deux directions : les soins médicaux et l'éducation.
Bien que 8GPT4 ait encore des faiblesses et des lacunes, tout comme le cerveau humain, une fois qu'il reçoit des instructions ou des invites plus claires, il peut être plus fort ; il peut également être plus parfait après avoir appelé d'autres outils auxiliaires. Tout comme le cerveau humain a également besoin d'outils tels que des calculatrices pour accomplir des tâches pour lesquelles le cerveau humain lui-même n'est pas doué.
Le nombre de paramètres des 9 grands modèles doit être comparé au nombre de synapses de neurones dans le cerveau humain (et non de neurones), qui est de 100 trillions. La quantité de paramètres de GPT4 n'a pas encore été annoncée, mais on estime que la quantité de paramètres du grand modèle sera bientôt approchée.
Le taux d'hallucination actuel du 10GPT4 est d'environ 10 % à 14 %, ce qui doit être réduit. Le taux d'hallucination est une caractéristique inévitable des modèles "humanoïdes". Ce ratio est encore trop élevé par rapport à l'homme. La question de savoir si elle peut être effectivement abaissée déterminera si le développement de l'AGI continuera d'augmenter jusqu'au bout ou entrera dans une période de creux dans quelques années.
11 Pour moi personnellement, la plus grande signification de ChatGPT est qu'il est la preuve la plus directe et incontestée que, sur la base de nœuds et de fonctions de calcul simples, tant que le nombre est suffisamment grand et que le modèle est suffisamment grand, un modèle de pensée suffisamment complexe peut être généré, et Ce système est fini, pas infini. Il se peut qu'il n'y ait pas une âme derrière le langage humain et la pensée qui l'anime, c'est peut-être quelque chose qui "émerge" après avoir été continuellement accordé par l'évolution de l'environnement après 100 000 milliards de connexions synaptiques. Tout cela est tout à fait conforme aux progrès rapides de diverses recherches sur la question "d'où viennent les gens" au cours des deux cents dernières années.
12 Des cellules individuelles à la formation des êtres humains, toutes les chaînes de preuves sont suffisamment complètes ; en ce qui concerne la formation de systèmes complexes, l'existence de gènes et de "motifs" a également des théories complètes ; mais les humains peuvent-ils concevoir un AGI à base de silicium sur toutes les théories scientifiques?Tissu de laine? Certaines personnes pensent que c'est quelques années, certaines personnes pensent que c'est des décennies, et plus de gens pensent que ce ne sera jamais (même après avoir vu les performances d'AlphaGo dans le domaine du Go), mais ChatGPT donne la réponse la plus claire avec des faits de fer. L'équipe de Sam n'aurait jamais dû penser que le cerveau humain est si grand, alors ils peuvent être si déterminés à suivre la voie AGI des grands modèles.C'est toujours un test de foi de brûler 100 millions de dollars américains par mois.
13 En raison du matériel sous-jacent différent, la "stratégie" de ChatGPT est susceptible d'être très différente de celle du cerveau humain, et elle est inefficace, mais il est surprenant que les résultats produits par Her soient si humains. La pensée humaine peut être essentiellement guidée par des règles simples.
14 Les "règles" du langage et de la pensée peuvent ne pas être complètement résumées par nous selon la "grammaire".Actuellement, cette règle est implicite et ne peut pas être complètement simplifiée et résumée. Donc, à l'heure actuelle, nous ne pouvons utiliser que de grands modèles pour le faire. Après tout, la structure du cerveau humain est naturellement évoluée à partir de cellules individuelles. Même s'il y a un créateur, il devrait être "ouvert" après l'univers, puis le laisser Sinon, comment pourrait-il y avoir autant de bugs et de défauts, lol.
15 J'admire Steven Pinker, il a pu expliquer de manière convaincante que le langage est l'instinct de tous les êtres humains et qu'il est "gravé" dans nos gènes il y a des décennies, en utilisant uniquement l'observation et le raisonnement. Je ne sais pas si Sam a lu le livre "Language Instinct", mais il a prouvé que les réseaux artificiels comme ChatGPT peuvent faire un très bon travail de création de langage. L'instinct de langage et la pensée logique ne sont pas aussi compliqués qu'on l'imagine. ChatGPT a "silencieusement" découvert la logique derrière le langage. La langue sera également «l'instinct» qui différencie tous les AGI à base de silicium des autres calculateurs et IA à base de silicium.
16 Le cerveau humain et le cerveau à base de carbone aiment généraliser et affiner (probablement forcés par une évolution cruelle), ils sont donc extrêmement efficaces (en termes d'utilisation d'énergie) ; mais ils ne sont pas bons pour les calculs et les traitements irréductibles, et nous sachez que de nombreux modèles de calcul ne peuvent le faire qu'étape par étape. L'architecture de GPT4 n'est certainement pas optimale, sans beaucoup de généralisation et de simplification, donc la consommation d'énergie est extrêmement élevée. Cependant, un consensus mondial s'est formé sur le fait que "cette voie est faisable". Plus tard, nous devrions voir plusieurs équipes aux États-Unis et en Chine accélérer les progrès dans divers aspects : puissance de calcul des puces, qualité des données, optimisation des algorithmes et architecture d'ingénierie.
Le système d'évaluation de la valeur du cerveau de 17 personnes devrait être l'ADN et les gènes génétiques formés par des molécules à base de carbone "Afin" de maximiser leur propre probabilité de réplication, grâce à la puissance de l'évolution naturelle, fixez des poids pour les synapses des neurones, et évoluer progressivement pour se déterminer vers le bas. Le « modèle » supporté par ce nœud informatique basé sur le carbone est loin d'être parfait et le taux d'évolution est lent. L'ajustement du « poids » et de « l'algorithme » est extrêmement inefficace, et il ne peut pas du tout suivre les changements environnementaux. C'est pourquoi nous avons des désirs et des souffrances humaines mentionnés par diverses religions.
18 Il est mentionné dans le livre "WhyBuddismis True" que le cerveau humain a au moins 7 modules (devrait être un grand modèle parallèle multimodal). Quel module de pensée occupe le sujet du « présent » et comment les gens prennent des « décisions » sont en fait déterminés par le « sentiment ». Et ce "sentiment" est déterminé par le "vieux" système d'évaluation de la valeur provoqué par l'évolution de "l'humain" (l'un des porteurs peut être une bactérie intestinale, haha). Je vous propose de lire les chapitres 6, 7 et 9 des notes de lecture que j'ai écrites il y a quelques années. Il est disponible sur le compte officiel d'Alpine Academy.
19 Imaginez si les humains créaient vraiment des AGI et des robots à base de silicium. Quel est le système d'évaluation de la valeur qui anime le cerveau du robot ? Le robot sera-t-il également confus "D'où viens-je et où vais-je" ? Les humains ont Sakyamuni, pourquoi pas les robots ? A quoi ressemblera l'éveil des robots ? Un certain robot écrira-t-il un jour un livre "Pourquoi Machinismis True" pour appeler les robots à se réveiller, appeler les robots à entrer dans le Nirvana et se débarrasser de la "réincarnation" mise en place par les humains ?
La limite d'énergie de 20 serait un plafond strict pour l'évolution du modèle. Cependant, le mode de consommation d'énergie de l'AGI à base de silicium dans le futur devrait être beaucoup plus efficace qu'il ne l'est actuellement. Après tout, le modèle du cerveau humain à base de carbone a évolué de manière itérative pendant un milliard d'années avant d'atteindre l'efficacité énergétique d'un corbeau. cerveau. À l'avenir, la consommation d'énergie de l'AGI à base de silicium pourrait être des centaines de millions de fois ou même supérieure à l'énergie que les humains peuvent utiliser aujourd'hui, mais les calculs et les choses qui peuvent être traitées seront également des centaines de millions de fois. Il n'est peut-être pas certain que la technologie de fusion nucléaire contrôlable verra le jour. Dans ce cas, l'énergie sur la terre peut suffire, sans parler du système solaire, de la Voie lactée et de l'univers au sens large.
ChatGPT et AGI sont géniaux, il faut dire super super géniaux ! Nous avons la chance de vivre à cette époque, non seulement nous pouvons vraiment comprendre d'où viennent les gens, mais nous pouvons aussi comprendre où les gens vont.
Le développement rapide de l'IA favorisera grandement notre demande pour la technologie Web3 : comment confirmer les droits de création de contenu ; comment établir l'identité d'une personne (Sam est engagé dans le worldcoin) ; à quoi bon être si productif ? Pouvez-vous imaginer tous les abonnements de contenu et l'utilisation du système bancaire pour effectuer des virements et des virements transfrontaliers ? Pouvez-vous ouvrir un compte bancaire pour un appareil IoT ? Pouvez-vous transférer 0,01 cents à 10 000 utilisateurs en même temps ? ... J'ai dit la dernière fois que les trois prochaines années seront le moment de l'iPhone pour le Web3, et que le nombre d'utilisateurs du Web3 dépassera certainement les 100 millions dans trois ans, voire de loin. Vous pouvez voir le volant ci-dessous :
J'ai toujours aimé lire des livres sur les sciences de la vie, les systèmes complexes et le bouddhisme (en tant que philosophie). " Gènes ", " Bottom Up ", " The Social Conquest of Earth ", " Language Instinct ", " Esoteric Simplicity ", " Out de contrôle" et "Pourquoi le bouddhisme est vrai". Je pense que si ces auteurs sont toujours vivants et ont la capacité d'écrire, ils devraient surveiller le développement futur de GPT et écrire une nouvelle édition du livre.
La vie humaine est trop courte et de nombreuses grandes idées sont malheureusement perdues à jamais dans le long fleuve de l'histoire. Les livres, la musique et les enregistrements de films et de télévision ne devraient représenter qu'une toute petite partie. Même s'ils sont enregistrés, tant de grands livres et de vérités ont toujours été là, combien une personne peut-elle lire ? L'AGI à base de silicium n'a pas du tout ce problème.
Il est temps de découvrir le dialogue entre Mopheus et Neo dans le film "The Matrix" et de le relire.
Auteur : KK, fondateur de HashGlobal
Voir l'original
Le contenu est fourni à titre de référence uniquement, il ne s'agit pas d'une sollicitation ou d'une offre. Aucun conseil en investissement, fiscalité ou juridique n'est fourni. Consultez l'Avertissement pour plus de détails sur les risques.
Un praticien Web3 examine ChatGPT et AGI
Écrit par : KK, fondateur de HashGlobal
J'ai récemment écouté le partage du Dr Lu Qi et du Dr Zhang Hongjiang sur le grand modèle et ChatGPT, et j'ai beaucoup gagné. J'ai compilé quelques réflexions et partagé avec les praticiens du Web3 :
2 L'évolution du modèle sera très similaire à l'évolution des gènes et de la vie, l'essence est la même. L'émergence de l'architecture du modèle Transformer est comme la première fois qu'une molécule a construit "involontairement" un ARN réplicable ; GPT-1, 2, 3, 3.5, 4, et le développement et l'évolution ultérieurs du modèle Tant qu'il n'y a pas de événement, c'est peut-être comme l'explosion de la vie, de plus en plus rapide, et de plus en plus "hors de contrôle". Le modèle lui-même a une "force motrice interne" qui continue de compliquer, qui est la loi de l'univers.
3 Il y a plus de 30 ans, Stephen Pinker a découvert que le langage est l'instinct humain, tout comme nous réalisons maintenant que la capacité linguistique originale est la source de la capacité de généralisation que nous recherchons dans la formation des modèles. Pourquoi la recherche sur l'intelligence artificielle et le langage a-t-elle échoué dans le passé, parce que le chemin était inversé ! Le langage est un instinct qui émerge lorsque le système neuronal du cerveau humain est suffisamment complexe.Quant à son évolution vers le chinois ou l'anglais, le langage des oiseaux est lié à l'environnement et aux tribus. Le modèle généralisé et d'autres "modèles" se superposent pour produire le formidable corps intelligent des êtres humains. Vous devez activement concevoir et construire des agents intelligents ou AGI, et la route est complètement inversée. Je pense que ce n'est peut-être pas impossible, mais c'est 100 millions de fois plus difficile.
4 S'il existe un corps intelligent de haute dimension ou un "dieu" "au sommet" de notre univers, lorsqu'il voit l'explosion cambrienne sur Terre, il devrait être aussi surpris que nous voyons ChatGPT aujourd'hui. Je ne peux pas l'expliquer complètement pour le moment, je ne peux qu'expérimenter et apprendre lentement, et essayer de comprendre.
5AGI peut être désassemblé en raison, plan, résolution de problèmes, réflexion abstraite, compréhension d'idées complexes et apprentissage. GPT4 est actuellement disponible à l'exception de Plan, et Learning en représente la moitié (car il est basé sur le modèle de pré-formation et ne peut pas être appris en temps réel), et tout le reste est disponible.
6 La capacité d'apprentissage moyenne du cerveau humain évolue lentement, mais une fois que le développement de l'intelligence basée sur le silicium est dans la bonne direction, la vitesse peut être exponentielle (voir l'écart entre GPT4 et GPT3.5).
7 grands modèles = grandes données + grande puissance de calcul + algorithmes puissants. Seuls les États-Unis et la Chine peuvent le faire dans le monde. La difficulté de faire un grand modèle réside dans l'accumulation de puces, de développeurs CUDA (plate-forme de programmation GPU), de construction d'ingénierie et de données de haute qualité (pour la formation, le réglage des paramètres et l'alignement). L'alignement a deux aspects, l'un consiste à aligner le modèle et l'expression du cerveau humain, et l'autre consiste à aligner les normes et intérêts moraux humains. Il existe de grandes opportunités pour les pistes de modèles verticaux domestiques dans au moins deux directions : les soins médicaux et l'éducation.
Bien que 8GPT4 ait encore des faiblesses et des lacunes, tout comme le cerveau humain, une fois qu'il reçoit des instructions ou des invites plus claires, il peut être plus fort ; il peut également être plus parfait après avoir appelé d'autres outils auxiliaires. Tout comme le cerveau humain a également besoin d'outils tels que des calculatrices pour accomplir des tâches pour lesquelles le cerveau humain lui-même n'est pas doué.
Le nombre de paramètres des 9 grands modèles doit être comparé au nombre de synapses de neurones dans le cerveau humain (et non de neurones), qui est de 100 trillions. La quantité de paramètres de GPT4 n'a pas encore été annoncée, mais on estime que la quantité de paramètres du grand modèle sera bientôt approchée.
Le taux d'hallucination actuel du 10GPT4 est d'environ 10 % à 14 %, ce qui doit être réduit. Le taux d'hallucination est une caractéristique inévitable des modèles "humanoïdes". Ce ratio est encore trop élevé par rapport à l'homme. La question de savoir si elle peut être effectivement abaissée déterminera si le développement de l'AGI continuera d'augmenter jusqu'au bout ou entrera dans une période de creux dans quelques années.
11 Pour moi personnellement, la plus grande signification de ChatGPT est qu'il est la preuve la plus directe et incontestée que, sur la base de nœuds et de fonctions de calcul simples, tant que le nombre est suffisamment grand et que le modèle est suffisamment grand, un modèle de pensée suffisamment complexe peut être généré, et Ce système est fini, pas infini. Il se peut qu'il n'y ait pas une âme derrière le langage humain et la pensée qui l'anime, c'est peut-être quelque chose qui "émerge" après avoir été continuellement accordé par l'évolution de l'environnement après 100 000 milliards de connexions synaptiques. Tout cela est tout à fait conforme aux progrès rapides de diverses recherches sur la question "d'où viennent les gens" au cours des deux cents dernières années.
12 Des cellules individuelles à la formation des êtres humains, toutes les chaînes de preuves sont suffisamment complètes ; en ce qui concerne la formation de systèmes complexes, l'existence de gènes et de "motifs" a également des théories complètes ; mais les humains peuvent-ils concevoir un AGI à base de silicium sur toutes les théories scientifiques?Tissu de laine? Certaines personnes pensent que c'est quelques années, certaines personnes pensent que c'est des décennies, et plus de gens pensent que ce ne sera jamais (même après avoir vu les performances d'AlphaGo dans le domaine du Go), mais ChatGPT donne la réponse la plus claire avec des faits de fer. L'équipe de Sam n'aurait jamais dû penser que le cerveau humain est si grand, alors ils peuvent être si déterminés à suivre la voie AGI des grands modèles.C'est toujours un test de foi de brûler 100 millions de dollars américains par mois.
13 En raison du matériel sous-jacent différent, la "stratégie" de ChatGPT est susceptible d'être très différente de celle du cerveau humain, et elle est inefficace, mais il est surprenant que les résultats produits par Her soient si humains. La pensée humaine peut être essentiellement guidée par des règles simples.
14 Les "règles" du langage et de la pensée peuvent ne pas être complètement résumées par nous selon la "grammaire".Actuellement, cette règle est implicite et ne peut pas être complètement simplifiée et résumée. Donc, à l'heure actuelle, nous ne pouvons utiliser que de grands modèles pour le faire. Après tout, la structure du cerveau humain est naturellement évoluée à partir de cellules individuelles. Même s'il y a un créateur, il devrait être "ouvert" après l'univers, puis le laisser Sinon, comment pourrait-il y avoir autant de bugs et de défauts, lol.
15 J'admire Steven Pinker, il a pu expliquer de manière convaincante que le langage est l'instinct de tous les êtres humains et qu'il est "gravé" dans nos gènes il y a des décennies, en utilisant uniquement l'observation et le raisonnement. Je ne sais pas si Sam a lu le livre "Language Instinct", mais il a prouvé que les réseaux artificiels comme ChatGPT peuvent faire un très bon travail de création de langage. L'instinct de langage et la pensée logique ne sont pas aussi compliqués qu'on l'imagine. ChatGPT a "silencieusement" découvert la logique derrière le langage. La langue sera également «l'instinct» qui différencie tous les AGI à base de silicium des autres calculateurs et IA à base de silicium.
16 Le cerveau humain et le cerveau à base de carbone aiment généraliser et affiner (probablement forcés par une évolution cruelle), ils sont donc extrêmement efficaces (en termes d'utilisation d'énergie) ; mais ils ne sont pas bons pour les calculs et les traitements irréductibles, et nous sachez que de nombreux modèles de calcul ne peuvent le faire qu'étape par étape. L'architecture de GPT4 n'est certainement pas optimale, sans beaucoup de généralisation et de simplification, donc la consommation d'énergie est extrêmement élevée. Cependant, un consensus mondial s'est formé sur le fait que "cette voie est faisable". Plus tard, nous devrions voir plusieurs équipes aux États-Unis et en Chine accélérer les progrès dans divers aspects : puissance de calcul des puces, qualité des données, optimisation des algorithmes et architecture d'ingénierie.
Le système d'évaluation de la valeur du cerveau de 17 personnes devrait être l'ADN et les gènes génétiques formés par des molécules à base de carbone "Afin" de maximiser leur propre probabilité de réplication, grâce à la puissance de l'évolution naturelle, fixez des poids pour les synapses des neurones, et évoluer progressivement pour se déterminer vers le bas. Le « modèle » supporté par ce nœud informatique basé sur le carbone est loin d'être parfait et le taux d'évolution est lent. L'ajustement du « poids » et de « l'algorithme » est extrêmement inefficace, et il ne peut pas du tout suivre les changements environnementaux. C'est pourquoi nous avons des désirs et des souffrances humaines mentionnés par diverses religions.
18 Il est mentionné dans le livre "WhyBuddismis True" que le cerveau humain a au moins 7 modules (devrait être un grand modèle parallèle multimodal). Quel module de pensée occupe le sujet du « présent » et comment les gens prennent des « décisions » sont en fait déterminés par le « sentiment ». Et ce "sentiment" est déterminé par le "vieux" système d'évaluation de la valeur provoqué par l'évolution de "l'humain" (l'un des porteurs peut être une bactérie intestinale, haha). Je vous propose de lire les chapitres 6, 7 et 9 des notes de lecture que j'ai écrites il y a quelques années. Il est disponible sur le compte officiel d'Alpine Academy.
19 Imaginez si les humains créaient vraiment des AGI et des robots à base de silicium. Quel est le système d'évaluation de la valeur qui anime le cerveau du robot ? Le robot sera-t-il également confus "D'où viens-je et où vais-je" ? Les humains ont Sakyamuni, pourquoi pas les robots ? A quoi ressemblera l'éveil des robots ? Un certain robot écrira-t-il un jour un livre "Pourquoi Machinismis True" pour appeler les robots à se réveiller, appeler les robots à entrer dans le Nirvana et se débarrasser de la "réincarnation" mise en place par les humains ?
La limite d'énergie de 20 serait un plafond strict pour l'évolution du modèle. Cependant, le mode de consommation d'énergie de l'AGI à base de silicium dans le futur devrait être beaucoup plus efficace qu'il ne l'est actuellement. Après tout, le modèle du cerveau humain à base de carbone a évolué de manière itérative pendant un milliard d'années avant d'atteindre l'efficacité énergétique d'un corbeau. cerveau. À l'avenir, la consommation d'énergie de l'AGI à base de silicium pourrait être des centaines de millions de fois ou même supérieure à l'énergie que les humains peuvent utiliser aujourd'hui, mais les calculs et les choses qui peuvent être traitées seront également des centaines de millions de fois. Il n'est peut-être pas certain que la technologie de fusion nucléaire contrôlable verra le jour. Dans ce cas, l'énergie sur la terre peut suffire, sans parler du système solaire, de la Voie lactée et de l'univers au sens large.
ChatGPT et AGI sont géniaux, il faut dire super super géniaux ! Nous avons la chance de vivre à cette époque, non seulement nous pouvons vraiment comprendre d'où viennent les gens, mais nous pouvons aussi comprendre où les gens vont.
Le développement rapide de l'IA favorisera grandement notre demande pour la technologie Web3 : comment confirmer les droits de création de contenu ; comment établir l'identité d'une personne (Sam est engagé dans le worldcoin) ; à quoi bon être si productif ? Pouvez-vous imaginer tous les abonnements de contenu et l'utilisation du système bancaire pour effectuer des virements et des virements transfrontaliers ? Pouvez-vous ouvrir un compte bancaire pour un appareil IoT ? Pouvez-vous transférer 0,01 cents à 10 000 utilisateurs en même temps ? ... J'ai dit la dernière fois que les trois prochaines années seront le moment de l'iPhone pour le Web3, et que le nombre d'utilisateurs du Web3 dépassera certainement les 100 millions dans trois ans, voire de loin. Vous pouvez voir le volant ci-dessous :
J'ai toujours aimé lire des livres sur les sciences de la vie, les systèmes complexes et le bouddhisme (en tant que philosophie). " Gènes ", " Bottom Up ", " The Social Conquest of Earth ", " Language Instinct ", " Esoteric Simplicity ", " Out de contrôle" et "Pourquoi le bouddhisme est vrai". Je pense que si ces auteurs sont toujours vivants et ont la capacité d'écrire, ils devraient surveiller le développement futur de GPT et écrire une nouvelle édition du livre.
La vie humaine est trop courte et de nombreuses grandes idées sont malheureusement perdues à jamais dans le long fleuve de l'histoire. Les livres, la musique et les enregistrements de films et de télévision ne devraient représenter qu'une toute petite partie. Même s'ils sont enregistrés, tant de grands livres et de vérités ont toujours été là, combien une personne peut-elle lire ? L'AGI à base de silicium n'a pas du tout ce problème.
Il est temps de découvrir le dialogue entre Mopheus et Neo dans le film "The Matrix" et de le relire.
Auteur : KK, fondateur de HashGlobal