Podcast Cover

Alucinando con la IA generativa en AWS

  • #006 - Productivizando la IA generativa: LLMOps

    16 FEB 2024 · Después de haber visto las principales estrategias para el uso de la IA generativa toca poner el proyecto en producción. Y ahí es donde las particularidades tanto del Machine Learning como de la IA generativa hacen que tengamos que tener en cuenta elementos adicionales a los de las aplicaciones tradicionales. Conceptos como MLOps, LLMOps, FMOps e incluso XOps toman relevancia. En este episodio, Eduardo Ordax, arquitecto de soluciones en AWS especialista en el tema nos cuenta todo lo que necesitamos saber de dichas prácticas y qué herramientas tenemos en AWS para implementarlas. En los siguientes links puedes profundizar sobre los conceptos comentados en el episodio: MLOps Matrix guide: https://www.linkedin.com/feed/update/urn:li:activity:7160874825714937856/ Prompting, RAG o fine-tunning: https://www.linkedin.com/posts/eordax_rag-promptengineering-finetuning-activity-7159432843708805120-uYZJ?utm_source=share&utm_medium=member_desktop Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML. Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas. Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/ Con unas grandes bases técnicas, Eduardo tiene 15 años de experiencia en ventas y desarrollo de negocio. Durante su carrera ha liderado equipos multi-funcionales y recientemente se ha especializado en inteligencia artificial y machine learning. En este entorno tan dinámico las organizaciones se estan dando cuenta que necesita acelerar su implantación y, con este objetivo, Eduardo lidera el Go to Market de AI/ML de AWS en EMEA, ayudando a clientes de todo el mundo a aprovechar el potencial de la inteligencia artificial. Es un apasionado de las discusiones sobre estos temas y de las conexiones con compañeros del sector para intercambiar conocimiento y experiencias. Contacta con Eduardo Ordax en LinkedIn en https://www.linkedin.com/in/eordax/
    Played 1h 1m 2s
  • #005 - Desarrollando aplicaciones de IA generativa

    18 JAN 2024 · En este capítulo nos ponemos en la piel del desarrollador de aplicaciones y hablamos sobre todo lo que hay que tener en cuenta cuando se crean aplicaciones basadas en IA generativa. Y para eso hemos sacado a Marcia Villalba de su Podcast de Charlas Técnicas de AWS y nos la hemos traído a esta playlist! En el siguiente blog de Marcia tienes acceso a múltiples recursos para ver y probar las técnicas descritas en el capítulo: https://blog.marcia.dev/building-ai-apps-with-serverless-resources Si quieres hacer tus primeros pasos con Amazond Bedrock y sus funcionalidades de Knowledge Bases y Agents para implementar escenarios de RAG y de ReACt, puedes visitar el siguiente blog: https://aws.amazon.com/blogs/aws/preview-connect-foundation-models-to-your-company-data-sources-with-agents-for-amazon-bedrock/ El podcast de Charlas técnicas de AWS está disponible en https://podcast.marcia.dev/ Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML. Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas. Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/ Marcia es una Developer Advocate para AWS en el equipo de Serverless, también es la anfitriona del canal de Youtube FooBar Serverless, y del podcast oficial Charlas Técnicas de AWS. Marcia tiene 20 años de experiencia trabajando como programadora de software profesional, creando software que escala a millones de usuarios y con un alto desempeño. Es una apasionada de la filosofía DevOps y de las buenas prácticas de desarrollo. Contacta con Marcia Villalba en LinkedIn en https://www.linkedin.com/in/marciavillalba/
    Played 1h 8m 50s
  • #004 - Fine tunning de modelos generativos

    23 NOV 2023 · Después de los capítulos sobre Retrieval Augmented Generation y Prompt Engineering, completamos la tríada de estrategias de base para el uso de IA generativa con datos propios con este capítulo dedicado al fine-tunning. Angel Conde, arquitecto de soluciones en AWS, nos cuenta todo lo que necesitas saber sobre esta técnica y como poder implementarla en AWS. ¿Qué es el fine tunning? ¿Cuándo aplicar el fine tunning? ¿Cómo hacerlo? ¿Qué es el olvido catastrófico? Todas las respuestas a estas preguntas y otras en este capítulo. Si quieres probar los conceptos aparecidos en el capítulo, puedes hacerlo siguiendo los pasos descritos en los siguientes links: https://aws.amazon.com/es/blogs/machine-learning/fine-tune-and-deploy-mistral-7b-with-amazon-sagemaker-jumpstart/ https://aws.amazon.com/es/blogs/machine-learning/fine-tune-text-to-image-stable-diffusion-models-with-amazon-sagemaker-jumpstart/ Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML. Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas. Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/ Angel Conde es especialista de analítica de Datos en AWS. Aparte de analítica, forma parte del equipo de especialización de IA/ML de AWS. Antes de estar en AWS dirigió un equipo de investigación en Analítica y AWS, tiene una tesis en NLP y ha dirigido dos tesis en colaboración con diferentes universidades sobre Deep Learning y detección de anomalías en series temporales. Contacta con Angel Conde en LinkedIn en https://www.linkedin.com/in/acmanjon/
    Played 39m 24s
  • #003 - Todo sobre Amazon Bedrock

    2 NOV 2023 · Amazon Bedrock está ya disponible de manera general y presente en la región europea de Frankfurt, así que la GDPR ya no es excusa para no usarlo. En este capítulo Antonio Rodríguez nos da todos los detalles sobre el servicio gestionado para el uso de modelos de IA generativa en AWS y algunas pistas sobre nuevas funcionalidades que estarán disponibles en un futuro cercano. Si quieres probar los conceptos aparecidos en el capítulo, puedes hacerlo directamente en los playgrounds de la consola de Bedrock o a través del workshop de Bedrock disponible en https://github.com/aws-samples/amazon-bedrock-workshop Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML. Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas. Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/ Antonio Rodríguez es Arquitecto de Soluciones especialista en Inteligencia Artificial y Machine Learning en Amazon Web Services. En su día a día, ayuda a empresas de todos los tamaños a resolver sus desafíos a través de la innovación, y a crear nuevas oportunidades de negocio con servicios de AI/ML en AWS. Fuera del trabajo, disfruta pasando tiempo con su familia y haciendo deporte con sus amigos. Contacta con Antonio Rodríguez en LinkedIn en https://www.linkedin.com/in/antrodriguez/
    Played 1h 2m 13s
  • #002 - Estrategias de Prompt Engineering

    3 OCT 2023 · Entender y dominar el prompt engineering es un requisito que se está convirtiendo en imprescindible para cualquier profesional en el ámbito de la inteligencia artificial generativa. En este capítulo, Carlos Milán (como la goma de borrar) nos contará en qué consiste y cuáles son las principales estrategias existentes. Si quieres probar tu mismo los conceptos aparecidos en el capítulo, puedes hacerlo directamente probando tus prompts en los playgrounds de los principales modelos en la consola de SageMaker en https://docs.aws.amazon.com/sagemaker/latest/dg/jumpstart-foundation-models-use.html#jumpstart-foundation-models-use-console o bien utilizando un Notebook en SageMaker Studio desplegando una copia privada de un modelo en https://github.com/aws-samples/prompt-engineering-playground-with-sagemaker Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML. Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas. Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/ Carlos Milán es ingeniero posgraduado en Técnicas Informáticas Avanzadas por la Universidad de Almería y Arquitecto de Soluciones en AWS. Con más de 14 años de dedicación al cloud, Carlos alinea los objetivos y los retos de negocio de los clientes con el diseño de soluciones que aprovechan el potencial de AWS en la transformación de infraestructuras de TI, aplicaciones, procesos y personas. Además, Carlos es un apasionado de la retro-informática, en especial de los ordenadores MSX y Commodore Amiga; y actualmente hospeda una de las pocas BBS activas en España con acceso a FidoNet. Contacta con Carlos Milán en LinkedIn en https://www.linkedin.com/in/cmilanf
    Played 1h 5m 3s
  • #001 - IA generativa con datos propios sin re-entrenar

    20 SEP 2023 · Los casos de uso de la IA generativa se están multiplicando pero un denominador común en muchos de ellos es la necesidad de utilizar información personalizada, propia y privada para generar las respuestas sin que dicha información haya formado parte del entrenamiento de un modelo, sin olvidarnos también de evitar las alucinaciones que pueden producirse. En este capítulo Pablo Nuñez Pölcher nos cuenta como el uso de estrategias como la generación amplificada por recuperación de información (Retrieval Augmented Generation o RAG) son claves para conseguir estos objetivos. Veremós en qué se basa esta estrategia, qué componentes tecnológicos son necesarios, las distintas alternativas para su implementación en AWS y como escojer la más adecuada: desde el servicio gestionado Amazon Kendra hasta los distintos modelos fundacionales para el cálculo de embeedings, pasando por las bases de datos vectoriales disponibles.Si quieres probar tu mismo los conceptos aparecidos en el capítulo, con distintos proveedores de modelos y distintos orígenes para RAG puedes hacerlo siguiendo este link: https://github.com/aws-samples/aws-genai-llm-chatbot/tree/main Albert Capdevila es un arquitecto de soluciones de AWS basado en Barcelona, ayudando a los clientes a construir sus cargas en AWS de acuerdo a las mejores prácticas. Después de más de 15 años trabajando en proyectos en el ámbito de las arquitecturas de integración, lleva ya 4 años focalizado en el cloud y en el AI/ML. Albert está actualmente trabajando en un modelo de predicción del tiempo libre que sus hijos le van a dejar para poder ir a escalar montañas. Contacta con Albert Capdevila en LinkedIn en https://www.linkedin.com/in/albertcapdevila/ Pablo Núñez es arquitecto de soluciones de AWS con base en Madrid. Desde allí, trabaja con clientes de salud y educación ayudándoles diseñar y desplegar sus cargas de manera escalable, sostenible y según mejores prácticas. Lleva inmerso en el mundo del cloud y el machine learning más de 5 años, y otros 15 de desarrollador backend. Su pasión por la bioingeniería lo ha llevado a ser además biólogo con especialización en fisiología. Cuando no está frente al ordenador, reparte su tiempo entre la electrónica, sus bicicletas, su alérgico gato negro (Hawking), y discutiendo investigaciones médicas con su esposa. Contacta con Pablo Nuñec en LinkedIn en https://www.linkedin.com/in/ppolcher
    Played 49m 2s

Las aplicaciones de IA generativa han suscitado mucha atención y fomentado la imaginación del público general, ya que pueden ayudar a reinventar la mayoría de las experiencias y aplicaciones de...

show more
Las aplicaciones de IA generativa han suscitado mucha atención y fomentado la imaginación del público general, ya que pueden ayudar a reinventar la mayoría de las experiencias y aplicaciones de los clientes, crear nuevas aplicaciones nunca antes vistas y ayudar a los clientes a alcanzar nuevos niveles de productividad. En este podcast vamos a tratar las distintas temáticas relacionadas con esta nueva tecnología y vamos a contar como puede implantarse en AWS: Prompt engineering, Retrieval Augmented Generation, fine-tunning, modelos fundacionales disponibles, mejores prácticas para desplegar los modelos... y cualquier temática que tome relevancia en este nuevo y cambiante campo de juego tecnológico!
show less
Contacts
Information

Looks like you don't have any active episode

Browse Spreaker Catalogue to discover great new content

Current

Podcast Cover

Looks like you don't have any episodes in your queue

Browse Spreaker Catalogue to discover great new content

Next Up

Episode Cover Episode Cover

It's so quiet here...

Time to discover new episodes!

Discover
Your Library
Search