IA générative

Documentation et ressources pour créer et implémenter des applications d'IA générative avec les outils et produits Google Cloud .

  • Accès à Gemini 2.0 Flash Thinking
  • Utilisation mensuelle gratuite de produits populaires, y compris les API d'IA et BigQuery
  • Aucuns frais automatiques, aucun engagement

Continuez à explorer Google Cloud avec plus de 20 produits toujours disponibles sans frais

Accédez à plus de 20 produits gratuits pour des cas d'utilisation courants, y compris des API d'IA, des VM, des entrepôts de données, et plus encore.

Découvrez comment créer des applications d'IA générative.

Accédez aux grands modèles d'IA générative de Google, afin de pouvoir les tester, les régler et les déployer pour les utiliser dans vos applications basées sur l'IA.
Découvrez comment envoyer des requêtes à l'API Gemini via Vertex AI, la plate-forme d'IA et de ML de Google Cloud.
Exploitez la puissance de GKE en tant que plate-forme d'IA/de ML personnalisable offrant un entraînement et une diffusion hautes performances et économiques, avec une évolutivité inégalée et des options d'infrastructure flexibles.
Déterminez si l'IA générative, l'IA traditionnelle, ou une combinaison des deux, convient à votre cas d'utilisation professionnel.
Découvrez comment relever les défis à chaque étape du développement d'une application d'IA générative.
Affichez des exemples de code pour des cas d'utilisation courants et déployez des exemples d'applications d'IA générative sécurisées, efficaces, résilientes, performantes et économiques.
Découvrez les termes spécifiques associés à l'IA générative.

Outils d'IA générative

Liste des outils d'IA générative, y compris Vertex AI Studio, Colab Enterprise/Notebooks et Workbench listés sous Cloud Console, et SDK/API listés comme un élément distinct.

Processus de développement de l'IA générative

Diagramme du flux de développement de l'IA générative avec six étapes : sélection du modèle (y compris Model Garden), ingénierie des requêtes (y compris la galerie de requêtes, Vertex AI Studio, la comparaison des requêtes et l'optimisation des requêtes), réglage (y compris l'entraînement et le réglage), optimisation (y compris la distillation), déploiement (y compris le registre de modèles, la prédiction en ligne et la prédiction par lot) et surveillance. Les étapes de sélection, d'ingénierie, d'ajustement et d'optimisation des modèles font partie d'un sous-cycle en boucle intitulé "Évaluation".

Exploration et hébergement de modèles

Google Cloud fournit un ensemble de modèles de fondation de pointe via Vertex AI, y compris Gemini. Vous pouvez également déployer un modèle tiers vers Vertex AI Model Garden ou l'auto-hébergement sur GKE ou Compute Engine.

Découvrez, testez, personnalisez et déployez des modèles et des composants Google à partir d'une bibliothèque de modèles de ML.
Découvrez, testez, personnalisez et déployez des modèles et des composants OSS sélectionnés à partir d'une bibliothèque de modèles de ML.
Découvrez comment déployer des modèles de génération de texte Hugging Face sur Vertex AI ou Google Kubernetes Engine (GKE).
Associez des GPU à des instances de VM pour accélérer les charges de travail d'IA générative sur Compute Engine.

Conception et ingénierie des requêtes

La conception de requêtes consiste à créer des paires de requêtes et de réponses pour fournir aux modèles de langage davantage de contexte et d'instructions. Une fois que vous avez créé des requêtes, vous les transmettez au modèle en tant qu'ensemble de données de requêtes pour le pré-entraînement. Lorsqu'un modèle diffuse des prédictions, il répond en intégrant vos instructions.

Concevez, testez et personnalisez les requêtes envoyées aux grands modèles de langage (LLM) Gemini et PaLM 2 de Google.
Découvrez le workflow d'ingénierie des requêtes et les stratégies courantes que vous pouvez utiliser pour affecter les réponses du modèle.
Consultez des exemples de requêtes et de réponses pour des cas d'utilisation spécifiques.

Ancrage et RAG

L'ancrage connecte les modèles d'IA à des sources de données pour améliorer la précision des réponses et réduire les hallucinations. La RAG (RAG, Retrieval-Augmented Generation) est une technique d'ancrage courante qui recherche des informations pertinentes et les ajoute à la requête du modèle. Elle permet de s'assurer que le résultat est basé sur des faits et des informations à jour.

Vous pouvez ancrer les modèles Vertex AI avec la recherche Google ou avec vos propres données stockées dans Vertex AI Search.
Utilisez l'ancrage avec la recherche Google pour associer le modèle aux connaissances à jour disponibles sur Internet.
Utilisez AlloyDB pour générer et stocker des embeddings vectoriels, puis indexez-les et interrogez-les à l'aide de l'extension pgvector.
Stockez des embeddings vectoriels dans Postgres SQL, puis indexez-les et interrogez-les à l'aide de l'extension pgvector.
Utilisez LangChain pour extraire des données de BigQuery, et enrichir et ancrer les réponses de votre modèle.
Créez des embeddings vectoriels à partir de vos données Firestore, puis indexez et interrogez les embeddings.
Utilisez LangChain pour extraire des données de Memorystore, et enrichir et ancrer les réponses de votre modèle.

Agents et appels de fonction

Les agents permettent de concevoir et d'intégrer facilement une interface utilisateur de conversation dans votre application mobile, tandis que l'appel de fonction étend les capacités d'un modèle.

Exploitez les modèles de fondation, l'expertise en recherche et les technologies d'IA conversationnelle de Google pour créer des applications d'IA générative de niveau professionnel.
Ajoutez l'appel de fonction à votre modèle pour activer des actions telles que la réservation en fonction des informations extraites de l'agenda.

Personnalisation et entraînement des modèles

Les tâches spécialisées, telles que l'entraînement d'un modèle de langage sur une terminologie spécifique, peuvent nécessiter plus d'entraînement qu'une conception de requête ou un ancrage seul. Dans ce cas, vous pouvez utiliser le réglage de modèle pour améliorer les performances ou entraîner votre propre modèle.

Évaluez les performances des modèles de fondation et de vos modèles d'IA générative réglés sur Vertex AI.
Les modèles de fondation à usage général peuvent bénéficier d'un réglage pour améliorer leurs performances sur des tâches spécifiques.
Les TPU (Tensor Processing Unit) sont des ASIC spécifiquement développés par Google pour accélérer les charges de travail de machine learning, comme l'entraînement d'un LLM.

Démarrer la création

LangChain est un framework Open Source pour les applications d'IA générative qui vous permet d'intégrer du contexte dans vos requêtes et d'agir en fonction de la réponse du modèle.
Affichez des exemples de code sélectionnés pour des cas d'utilisation courants et déployez des exemples d'applications d'IA générative sécurisées, efficaces, résilientes, performantes et économiques.