Un aperçu des points clés abordés dans le 2ème épisode du podcast AI Business Asia avec Lewis Liu, chef de produit de groupe chez Google Gemini et Vertex AI.
Si vous voulez voir l'épisode → Spotify | Pomme
Dans le monde en constante évolution de l'intelligence artificielle (IA), en particulier dans le domaine des grands modèles linguistiques (LLM), les avancées se produisent à un rythme sans précédent. Ce récapitulatif explore les développements récents de l'approche de Google en matière de LLM, notamment l'évolution vers des lancements progressifs, l'intégration de fonctionnalités innovantes et le paysage concurrentiel des modèles mondiaux. Nous nous penchons également sur le rôle des données, les avantages des données propriétaires et ce qu'exige une expérience d'IA adaptée à l'entreprise.
Les avancées de Google dans le domaine des LLM
Au cours de l'année écoulée, l'équipe de Google a considérablement accéléré le rythme des lancements de LLM, en livrant environ 200 mises à jour contre 20 à 30 lancements les années précédentes, soit une multiplication par dix. Ce changement reflète le passage des lancements traditionnels à grande échelle à une approche plus agile et progressive.
Fonctionnalités innovantes
- Génération contrôlée:Google a introduit une fonctionnalité de génération contrôlée avec décodage contrôlé. Cette capacité permet aux développeurs de fournir un schéma au modèle, garantissant que les objets JSON générés sont précis à 100% et conformes aux schémas spécifiés. Cette fonctionnalité a été livrée pour la première fois avec le modèle Gemini 1.5 Pro et a été récemment adoptée par OpenAI.
- Mise en cache du contexte : Une autre innovation est la mise en cache du contexte, qui permet de gérer des fenêtres de contexte étendues. Google a été le pionnier d'une fenêtre de contexte pouvant atteindre 2 millions de jetons. Ces avancées soulignent l'engagement de Google à améliorer les capacités des modèles et l'expérience utilisateur.
Positionnement concurrentiel
Face à l’impression que Google manque d’avantage concurrentiel, l’entreprise s’est concentrée sur l’innovation rapide et sur la réponse aux avancées mondiales en matière d’IA. La discussion aborde également les défis et les opportunités présentés par les modèles émergents en Chine, où les progrès dans la gestion des contextes longs et le réglage fin pour les langues chinoises sont notables.
Le paysage mondial des modèles d’IA
Modèles de Chine
Les modèles développés en Chine suscitent de plus en plus d’intérêt pour leurs capacités, notamment en ce qui concerne la gestion de longs contextes et l’adaptation des réponses aux langues chinoises. La conversation révèle que même si Google surveille ces développements, l’entreprise n’interagit pas directement avec le marché chinois en raison de contraintes réglementaires.
Identité et nationalité dans l'IA
Un sujet de discussion important est de savoir si les LLM doivent avoir une identité nationale ou être influencés par des frontières géographiques. Le consensus est que même si les modèles reflètent les préjugés et les identités de leurs créateurs, un investissement massif dans les modèles nationaux n'est peut-être pas nécessaire. Au lieu de cela, un ajustement précis pour des cas d'utilisation spécifiques pourrait être plus pratique.
Le rôle des données dans le développement du LLM
Importance des données de haute qualité
Des données de haute qualité restent la pierre angulaire de la formation de LLM efficaces. Dans le domaine de l'IA générative, la qualité et la diversité des données influencent directement la capacité du modèle à générer des résultats précis, pertinents et adaptés au contexte. Les données synthétiques, lorsqu'elles sont intégrées de manière réfléchie, peuvent repousser les limites de ce que les LLM peuvent accomplir, en particulier dans les scénarios où les données du monde réel peuvent être limitées ou biaisées. La progression des LLM est de plus en plus déterminée par des sources de données diverses, notamment les interactions homme-machine, qui améliorent la capacité des modèles à raisonner, à planifier et à générer des réponses plus nuancées.
Données et infrastructures de première partie
- Défis pour les startups:Les startups sont confrontées à des défis considérables lorsqu’elles doivent rivaliser avec les grandes entreprises qui ont accès à de vastes quantités de données first-party. L’accent mis par des entreprises comme Google sur les données propriétaires et une infrastructure robuste souligne le rôle essentiel que jouent ces éléments dans la création d’applications LLM différenciées. Pour les startups, le manque d’accès aux données first-party peut constituer un obstacle considérable, ce qui rend essentiel l’exploration d’approches innovantes en matière d’acquisition de données et de formation de modèles.
- Conformité réglementaire : Il est essentiel de fonder l’IA sur des informations factuelles et fiables pour développer des solutions adaptées aux entreprises. Dans le contexte de l’IA générative, la base garantit que les résultats produits par le modèle sont non seulement précis, mais également conformes au contexte et aux réglementations du monde réel. Cela est particulièrement important dans les applications d’entreprise où les enjeux sont élevés et le coût des inexactitudes peut être important. Le respect de la conformité réglementaire est un autre aspect essentiel, car il garantit que les solutions d’IA fonctionnent dans le cadre juridique des secteurs qu’elles servent, réduisant ainsi le risque de complications juridiques et favorisant la confiance entre les utilisateurs.
Créer une expérience d'IA adaptée à l'entreprise
L’adoption de l’IA en entreprise nécessite une prise en compte attentive de plusieurs facteurs clés pour garantir une mise en œuvre réussie et la création de valeur :
- Capacités de la plateforme : Les entreprises ont besoin de bien plus qu'un simple modèle ou API. Une plateforme complète doit prendre en charge le réglage fin, l'évaluation et la distillation des modèles. Les fonctionnalités collaboratives sont essentielles, car elles permettent aux équipes de travailler ensemble sur les invites et de suivre les modifications de manière efficace.
- Sécurité et confidentialité : Des mesures de sécurité rigoureuses sont primordiales. Google, par exemple, met en œuvre un cryptage puissant pour garantir que les données des clients restent inaccessibles aux employés. Ce niveau de protection des données est essentiel pour maintenir la confiance et le respect des réglementations1.
- Évolutivité : La capacité à déployer des modèles à grande échelle est essentielle pour les applications d'entreprise. Cela implique de prendre en compte la rentabilité et l'optimisation des performances.
- Factualité et fondement : Les entreprises ont besoin de systèmes d’IA qui fournissent des informations précises et factuelles. Des techniques telles que la génération augmentée de récupération (RAG) peuvent aider à ancrer les réponses de l’IA dans des sources de données vérifiées, réduisant ainsi les hallucinations et améliorant la fiabilité.
- Intégration avec les systèmes existants : Pour une efficacité maximale, l'IA doit s'intégrer de manière transparente aux outils et aux flux de travail existants d'une organisation. L'approche de Google consistant à intégrer Gemini dans des applications largement utilisées comme Gmail et Calendar illustre cette stratégie.
- Personnalisation et réglage fin : La capacité à adapter les modèles aux besoins spécifiques du secteur ou aux données de l'entreprise est essentielle. Cela permet aux entreprises de tirer parti de l'IA pour leurs cas d'utilisation uniques et leurs informations exclusives.
- Conformité et respect de la réglementation : Les solutions d’IA d’entreprise doivent être conçues en tenant compte des exigences réglementaires, en veillant à ce qu’elles répondent aux normes spécifiques du secteur et aux lois sur la protection des données.
- Gestion des coûts : Alors que certaines fonctionnalités LLM deviennent banalisées, les entreprises doivent équilibrer la qualité, la latence et le coût lors de la sélection et de la mise en œuvre de solutions d’IA.
- Évaluation continue : Compte tenu du rythme rapide du développement de l’IA, les entreprises devraient mettre en œuvre des cadres pour l’évaluation continue des modèles d’IA en utilisant leurs propres données et cas d’utilisation, plutôt que de s’appuyer uniquement sur des références publiques.
- Considérations éthiques : Le développement et le déploiement responsables de l’IA doivent être une priorité, en s’attaquant aux biais potentiels et en garantissant une utilisation juste et éthique des technologies de l’IA.
Voici quelques études de cas Google Cloud GenAI :
Banque fédérale
- Interaction améliorée avec le chatbot:Utilisé Vertex AI pour rendre le chatbot, Feddy, plus humain et personnalisé.
- Assistance multilingue 24h/24 et 7j/7:Implémentation de l'IA pour un service client multilingue 24 heures sur 24.
- Intégration API : Développé un portail API pour rationaliser les collaborations FinTech et améliorer la sécurité.
- Efficacité des employés : Création d'une application mobile avec Firebase pour augmenter la productivité des employés.
- Sécurité des données : Nous avons utilisé Cloud Armor pour nous protéger contre les attaques DDoS et garantir la conformité des données.
Mystifly
- Intégration des clients : Création de Mystic, un chatbot IA utilisant Vertex AI, pour rationaliser l'intégration des utilisateurs et réduire le besoin d'assistance des agents.
- Libre-service amélioré:Mystic gère les requêtes complexes, améliorant ainsi la satisfaction des utilisateurs.
- Évolutivité:Le chatbot IA gère plusieurs requêtes à la fois et transmet les problèmes non résolus aux agents humains.
CoRover
- Développement de BharatGPT : Nous avons créé une plateforme d'IA multilingue à l'aide de Vertex AI, permettant aux marques de converser avec leurs clients dans leur langue maternelle.
- Personnalisation et sécurité:Offre une utilisation flexible des données avec l'infrastructure sécurisée de Google.
- Évolutivité : Utilisez la mise à l'échelle automatique de Kubernetes Engine pour gérer efficacement les pics de trafic.
- Collaboration innovante : Partenariat avec Google Cloud pour une innovation continue et des solutions axées sur le client.
Conseils pour les startups et les dirigeants
Pour les startups
Soyez agile : L’évolution rapide de la technologie de l’IA exige que les startups restent agiles et réactives. Élaborer une feuille de route à long terme peut s’avérer difficile étant donné la nature imprévisible des avancées technologiques. Les startups doivent s’efforcer de s’adapter rapidement aux nouveaux développements et d’expérimenter les technologies émergentes.
Pour les cadres
Évaluer les cas d’utilisation : Les dirigeants sont encouragés à regarder au-delà du battage médiatique et des critères de référence lors de la mise en œuvre de stratégies d'IA. Il est essentiel d'évaluer les modèles en fonction de cas d'utilisation pratiques et de les évaluer avec leurs données. Les critères de référence publics ne reflètent pas toujours les performances d'un modèle dans des scénarios réels, c'est pourquoi les tests pratiques sont essentiels.
Conclusion
Le paysage des grands modèles linguistiques évolue rapidement, avec des avancées significatives provenant à la fois d’acteurs établis comme Google et de modèles émergents à l’échelle mondiale. Des innovations telles que la génération contrôlée et la mise en cache du contexte établissent de nouvelles normes pour les capacités LLM. À mesure que la technologie de l’IA continue de progresser, la compréhension du rôle des données, de l’impact des influences géographiques et de l’importance du développement agile sera essentielle pour garder une longueur d’avance dans ce domaine dynamique.
Pour les startups comme pour les dirigeants, rester agile et concentré sur les applications pratiques sera crucial pour naviguer dans l’avenir de l’IA et garantir des implémentations réussies.
Assurez-vous d'être abonné pour recevoir des notifications pour nos futurs épisodes de podcast. → Youtube | Spotify | Pomme | RSS
Abonnez-vous pour recevoir les dernières mises à jour du blog
Laissez votre commentaire: