Google a publié un parcours d'apprentissage génératif sur l'IA, comprenant 8 cours et 2 tests, couvrant tout, des principes techniques, des méthodes de mise en œuvre, des scénarios d'application, du développement et du déploiement. Certains cours sont dans Google Cloud, mais le contenu et la structure sont très bons, complètement gratuit.
Les 8 cours sont introduits et reliés comme suit : Note de Xiaopang : si vous ne savez pas quoi apprendre, vous pouvez lire l'introduction. Si vos mains vous démangent, vous pouvez passer directement au #4 5 #8 pour faire trois projets pratiques : générer du texte à partir de texte, générer du texte à partir de texte et générer du texte à partir d'images. 1. Qu'est-ce que l'IA générative, quelles sont ses applications et en quoi est-elle différente de l'apprentissage automatique traditionnel. [Atteignez l'objectif d'alphabétisation après avoir appris] 2. Qu'est-ce qu'un grand modèle de langage (LLM), les scénarios d'application d'un grand modèle de langage et comment les mots rapides () et le réglage fin (réglage fin) peuvent améliorer les performances du modèle. [Plus de 90 % des amis chinois sur Twitter après avoir appris] 3. Qu'est-ce que l'IA responsable (IA responsable), pourquoi il est important que les modèles d'IA soient sûrs, fiables et éthiques, et comment créer un produit qui utilise une IA responsable. [Il n'y a pas beaucoup de valeur pratique. Après avoir appris, vous pouvez vous vanter à la table des vins mais vous serez dégoûté. 】 4. Modèles de diffusion Théorie des modèles de génération d'images, méthodes de formation des modèles et comment déployer le modèle dans le cloud (commence à apporter des marchandises !). [Après avoir appris, vous pouvez découvrir comment ces start-up de génération d'images sont manipulées] 5. Principes de l'architecture du modèle d'encodeur-décodeur largement utilisé dans des tâches telles que la traduction automatique et la reconnaissance vocale, et comment construire une IA de génération de poésie avec cette architecture dans TensorFlow [En fait, la plupart des startups de génération de texte n'utilisent pas cette couverture... c'est trop difficile pour elles... mais vous pouvez construire vos propres blocs de construction à l'avance et comment couvrir votre entreprise] 6. Comment le mécanisme d'attention dans le réseau neuronal alloue-t-il des ressources informatiques à des tâches plus importantes dans des conditions de puissance de calcul limitée, et améliore-t-il les performances de traduction, de résumé, de réponse aux questions, etc. [La plupart des VC et des entrepreneurs ayant une formation non technique ne peuvent pas atteindre ce niveau, à ce moment-là, la vantardise ne sera pas facilement brisée] 7. Le principe de base de la technologie de pré-formation BERT (Représentations d'encodeurs bidirectionnels à partir de transformateurs) dans le traitement du langage naturel, et comment il peut faire en sorte que l'IA améliore considérablement la capacité de comprendre le texte non étiqueté en contexte dans de nombreuses tâches différentes. [Érudit... c'est vraiment génial... mais on dirait que Google se vante de sa propre technologie...] 8. Apprenez à comprendre et à étiqueter les images, et apprenez à construire un modèle d'intelligence artificielle qui regarde les images, parle et comprend les images. 【Difficile et amusant! Je n'ai pas encore vu beaucoup d'applications dans ce domaine]
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Google a publié un parcours d'apprentissage génératif sur l'IA, comprenant 8 cours et 2 tests, couvrant tout, des principes techniques, des méthodes de mise en œuvre, des scénarios d'application, du développement et du déploiement. Certains cours sont dans Google Cloud, mais le contenu et la structure sont très bons, complètement gratuit.
Les 8 cours sont introduits et reliés comme suit :
Note de Xiaopang : si vous ne savez pas quoi apprendre, vous pouvez lire l'introduction. Si vos mains vous démangent, vous pouvez passer directement au #4 5 #8 pour faire trois projets pratiques : générer du texte à partir de texte, générer du texte à partir de texte et générer du texte à partir d'images.
1. Qu'est-ce que l'IA générative, quelles sont ses applications et en quoi est-elle différente de l'apprentissage automatique traditionnel.
[Atteignez l'objectif d'alphabétisation après avoir appris]
2. Qu'est-ce qu'un grand modèle de langage (LLM), les scénarios d'application d'un grand modèle de langage et comment les mots rapides () et le réglage fin (réglage fin) peuvent améliorer les performances du modèle.
[Plus de 90 % des amis chinois sur Twitter après avoir appris]
3. Qu'est-ce que l'IA responsable (IA responsable), pourquoi il est important que les modèles d'IA soient sûrs, fiables et éthiques, et comment créer un produit qui utilise une IA responsable.
[Il n'y a pas beaucoup de valeur pratique. Après avoir appris, vous pouvez vous vanter à la table des vins mais vous serez dégoûté. 】
4. Modèles de diffusion Théorie des modèles de génération d'images, méthodes de formation des modèles et comment déployer le modèle dans le cloud (commence à apporter des marchandises !).
[Après avoir appris, vous pouvez découvrir comment ces start-up de génération d'images sont manipulées]
5. Principes de l'architecture du modèle d'encodeur-décodeur largement utilisé dans des tâches telles que la traduction automatique et la reconnaissance vocale, et comment construire une IA de génération de poésie avec cette architecture dans TensorFlow
[En fait, la plupart des startups de génération de texte n'utilisent pas cette couverture... c'est trop difficile pour elles... mais vous pouvez construire vos propres blocs de construction à l'avance et comment couvrir votre entreprise]
6. Comment le mécanisme d'attention dans le réseau neuronal alloue-t-il des ressources informatiques à des tâches plus importantes dans des conditions de puissance de calcul limitée, et améliore-t-il les performances de traduction, de résumé, de réponse aux questions, etc.
[La plupart des VC et des entrepreneurs ayant une formation non technique ne peuvent pas atteindre ce niveau, à ce moment-là, la vantardise ne sera pas facilement brisée]
7. Le principe de base de la technologie de pré-formation BERT (Représentations d'encodeurs bidirectionnels à partir de transformateurs) dans le traitement du langage naturel, et comment il peut faire en sorte que l'IA améliore considérablement la capacité de comprendre le texte non étiqueté en contexte dans de nombreuses tâches différentes.
[Érudit... c'est vraiment génial... mais on dirait que Google se vante de sa propre technologie...]
8. Apprenez à comprendre et à étiqueter les images, et apprenez à construire un modèle d'intelligence artificielle qui regarde les images, parle et comprend les images.
【Difficile et amusant! Je n'ai pas encore vu beaucoup d'applications dans ce domaine]