![](https://www.aibusinessasia.com/wp-content/uploads/2024/11/ABA_Podcast_Poster__16-9_Lewis_.avif)
Una revisión de los puntos clave discutidos en el segundo episodio del podcast AI Business Asia con Lewis Liu, gerente de productos del grupo Google Gemini y Vertex AI.
Si quieres ver el episodio → Spotify | Manzana
En el vertiginoso mundo de la inteligencia artificial (IA), en particular en los modelos de lenguaje de gran tamaño (LLM), los avances se están produciendo a un ritmo sin precedentes. Este resumen explora los últimos avances en el enfoque de Google en relación con los LLM, incluido el cambio hacia lanzamientos incrementales, la integración de características innovadoras y el panorama competitivo con modelos globales. También profundizamos en el papel de los datos, las ventajas de los datos propios y lo que requiere una experiencia de IA preparada para la empresa.
Los avances de Google en materia de LLM
Durante el último año, el equipo de Google ha acelerado significativamente el ritmo de lanzamientos de LLM, entregando aproximadamente 200 actualizaciones en comparación con los 20-30 lanzamientos de los años anteriores, un aumento de diez veces. Este cambio refleja un cambio desde los lanzamientos tradicionales a gran escala hacia un enfoque más ágil e incremental.
Características innovadoras
- Generación controlada:Google introdujo una función de generación controlada con decodificación controlada. Esta capacidad permite a los desarrolladores proporcionar un esquema al modelo, lo que garantiza que los objetos JSON generados sean 100% precisos y se ajusten a los esquemas especificados. Esta función se entregó por primera vez con el modelo Gemini 1.5 Pro y recientemente fue adoptada por OpenAI.
- Almacenamiento en caché de contexto: Otra innovación es el almacenamiento en caché de contexto, que ayuda a gestionar ventanas de contexto extensas. Google es pionero en el uso de una ventana de contexto de hasta 2 millones de tokens. Estos avances ponen de relieve el compromiso de Google de mejorar las capacidades de los modelos y las experiencias de los usuarios.
Posicionamiento competitivo
En medio de la percepción de que Google carece de una ventaja competitiva, la empresa se ha centrado en la innovación rápida y en responder a los avances globales en inteligencia artificial. El debate también aborda los desafíos y las oportunidades que presentan los modelos emergentes de China, donde son notables los avances en el manejo de contextos largos y el ajuste fino para los idiomas chinos.
El panorama global de los modelos de IA
Modelos de China
Los modelos desarrollados en China están ganando atención por sus capacidades, en particular en el manejo de contextos largos y la adaptación de respuestas a los idiomas chinos. La conversación revela que, si bien Google monitorea estos desarrollos, la empresa no interactúa directamente con el mercado chino debido a restricciones regulatorias.
Identidad y nacionalidad en la IA
Un tema de debate importante es si los LLM deberían tener identidades nacionales o verse influidos por fronteras geográficas. El consenso es que, si bien los modelos reflejan los sesgos e identidades de sus creadores, tal vez no sea necesaria una inversión extensiva en modelos nacionales. En cambio, podría ser más práctico realizar ajustes para casos de uso específicos.
El papel de los datos en el desarrollo de un máster
Importancia de los datos de alta calidad
Los datos de alta calidad siguen siendo la piedra angular de la formación de modelos de aprendizaje profundo eficaces. En el ámbito de la IA generativa, la calidad y la diversidad de los datos influyen directamente en la capacidad del modelo para generar resultados precisos, relevantes y sensibles al contexto. Los datos sintéticos, cuando se integran de forma inteligente, pueden ampliar los límites de lo que pueden lograr los modelos de aprendizaje profundo, especialmente en situaciones en las que los datos del mundo real pueden ser limitados o sesgados. La progresión de los modelos de aprendizaje profundo está cada vez más impulsada por diversas fuentes de datos, incluidas las interacciones entre humanos y computadoras, que mejoran la capacidad de los modelos para razonar, planificar y generar respuestas más matizadas.
Infraestructura y datos propios
- Desafíos para las startups:Las empresas emergentes enfrentan desafíos importantes cuando compiten con grandes empresas que tienen acceso a grandes cantidades de datos propios. El énfasis en los datos propios y la infraestructura sólida por parte de empresas como Google subraya el papel fundamental que estos elementos desempeñan en la creación de aplicaciones LLM diferenciadas. Para las empresas emergentes, la falta de acceso a datos propios puede ser un obstáculo considerable, por lo que es esencial explorar enfoques innovadores para la adquisición de datos y el entrenamiento de modelos.
- Cumplimiento normativo: Para desarrollar soluciones empresariales es fundamental fundamentar la IA en información objetiva y fiable. En el contexto de la IA generativa, la fundamentación garantiza que los resultados generados por el modelo no solo sean precisos, sino que también estén en consonancia con el contexto y las normativas del mundo real. Esto es especialmente importante en aplicaciones empresariales, donde hay mucho en juego y el coste de las imprecisiones puede ser significativo. El cumplimiento de las normativas es otro aspecto esencial, ya que garantiza que las soluciones de IA funcionen dentro de los marcos legales de las industrias a las que sirven, lo que reduce el riesgo de complicaciones legales y fomenta la confianza entre los usuarios.
Creación de una experiencia de IA preparada para la empresa
La adopción de IA empresarial requiere una consideración cuidadosa de varios factores clave para garantizar una implementación exitosa y la creación de valor:
- Capacidades de la plataforma: Las empresas necesitan más que un modelo o una API. Una plataforma integral debe permitir el ajuste, la evaluación y la destilación de modelos. Las funciones colaborativas son fundamentales, ya que permiten que los equipos trabajen juntos en base a indicaciones y realicen un seguimiento de los cambios de manera eficiente.
- Seguridad y privacidad: Es fundamental adoptar medidas de seguridad sólidas. Google, por ejemplo, implementa un cifrado sólido para garantizar que los datos de los clientes permanezcan inaccesibles para los empleados. Este nivel de protección de datos es fundamental para mantener la confianza y el cumplimiento de las normativas1.
- Escalabilidad: La capacidad de implementar modelos a escala es esencial para las aplicaciones empresariales. Esto incluye consideraciones de rentabilidad y optimización del rendimiento.
- Factibilidad y fundamento: Las empresas necesitan sistemas de IA que proporcionen información precisa y veraz. Técnicas como la generación aumentada de recuperación (RAG) pueden ayudar a fundamentar las respuestas de la IA en fuentes de datos verificadas, lo que reduce las alucinaciones y mejora la confiabilidad.
- Integración con sistemas existentes: Para lograr la máxima eficiencia, la IA debe integrarse sin problemas con las herramientas y los flujos de trabajo existentes de una organización. El enfoque de Google de incorporar Gemini en aplicaciones de uso generalizado como Gmail y Calendar es un ejemplo de esta estrategia.
- Personalización y ajuste: La capacidad de adaptar los modelos a las necesidades específicas de la industria o a los datos de la empresa es fundamental. Esto permite a las empresas aprovechar la IA para sus casos de uso exclusivos y su información exclusiva.
- Cumplimiento y Adhesión Normativa: Las soluciones de inteligencia artificial empresarial deben diseñarse teniendo en cuenta los requisitos regulatorios, garantizando que cumplan con los estándares específicos de la industria y las leyes de protección de datos.
- Gestión de costes: Si bien algunas capacidades de LLM se están convirtiendo en productos básicos, las empresas deben equilibrar la calidad, la latencia y el costo al seleccionar e implementar soluciones de IA.
- Evaluación continua: Dado el rápido ritmo de desarrollo de la IA, las empresas deberían implementar marcos para la evaluación continua de los modelos de IA utilizando sus propios datos y casos de uso, en lugar de confiar únicamente en puntos de referencia públicos.
- Consideraciones éticas: El desarrollo y la implementación responsables de la IA deben ser una prioridad, abordando los posibles sesgos y garantizando un uso justo y ético de las tecnologías de IA.
A continuación se muestran algunos casos prácticos de Google Cloud GenAI:
Banco Federal
- Interacción mejorada con chatbot:Utilizamos Vertex AI para hacer que el chatbot, Feddy, sea más humano y personalizado.
- Soporte multilingüe 24 horas al día, 7 días a la semana:Se implementó inteligencia artificial para brindar servicio al cliente multilingüe las 24 horas del día.
- Integración API: Se desarrolló un portal API para agilizar las colaboraciones FinTech y mejorar la seguridad.
- Eficiencia de los empleados: Creó una aplicación móvil con Firebase para aumentar la productividad de los empleados.
- Seguridad de datos: Se utilizó Cloud Armor para protegerse contra ataques DDoS y garantizar el cumplimiento de los datos.
Mosca mística
- Incorporación de clientes: Creó Mystic, un chatbot de IA que utiliza Vertex AI para agilizar la incorporación de usuarios y reducir la necesidad de soporte del agente.
- Autoservicio mejorado:Mystic maneja consultas complejas, mejorando la satisfacción del usuario.
- Escalabilidad:El chatbot de IA gestiona múltiples consultas a la vez y escala los problemas no resueltos a agentes humanos.
CoRover
- Desarrollo de BharatGPT: Creó una plataforma de inteligencia artificial multilingüe utilizando Vertex AI, lo que permite a las marcas conversar con los clientes en sus idiomas nativos.
- Personalización y seguridad:Ofrece un uso flexible de datos con la infraestructura segura de Google.
- Escalabilidad: Se utilizó el escalamiento automático de Kubernetes Engine para gestionar el tráfico pico de manera eficiente.
- Colaboración innovadora: Se asoció con Google Cloud para lograr innovación continua y soluciones centradas en el cliente.
Consejos para startups y ejecutivos
Para empresas emergentes
Sea ágil: La rápida evolución de la tecnología de IA exige que las empresas emergentes sigan siendo ágiles y receptivas. Desarrollar una hoja de ruta a largo plazo puede ser un desafío dada la naturaleza impredecible de los avances tecnológicos. Las empresas emergentes deben centrarse en adaptarse rápidamente a los nuevos avances y experimentar con tecnologías emergentes.
Para ejecutivos
Evaluar casos de uso: Se alienta a los ejecutivos a mirar más allá de las expectativas y los puntos de referencia a la hora de implementar estrategias de IA. Es fundamental evaluar los modelos en función de casos de uso prácticos y evaluarlos con sus datos. Los puntos de referencia públicos pueden no siempre reflejar el rendimiento de un modelo en situaciones del mundo real, por lo que las pruebas prácticas son esenciales.
Conclusión
El panorama de los modelos de lenguaje de gran tamaño está evolucionando rápidamente, con avances significativos provenientes tanto de actores establecidos como Google como de modelos emergentes a nivel mundial. Innovaciones como la generación controlada y el almacenamiento en caché de contexto están estableciendo nuevos estándares para las capacidades de LLM. A medida que la tecnología de IA continúa avanzando, comprender el papel de los datos, el impacto de las influencias geográficas y la importancia del desarrollo ágil será clave para mantenerse a la vanguardia en este campo dinámico.
Tanto para las empresas emergentes como para los ejecutivos, mantenerse ágiles y concentrados en las aplicaciones prácticas será crucial para navegar el futuro de la IA y garantizar implementaciones exitosas.
Asegúrate de estar suscrito para recibir notificaciones de nuestros futuros podcasts. episodios → YouTube | Spotify | Manzana | RRSS
Suscríbete para recibir actualizaciones de las últimas publicaciones del blog
Deja tu comentario: