Nuevos parámetros opcionales en Vertex AI Conversation

Tiempo de lectura: 3 minutos
Descubre cómo los parámetros opcionales en Vertex AI Conversation y Dialogflow CX elevan la personalización y el control en los LLMs

Antes de adentrarnos en los nuevos parámetros opcionales en Vertex AI Conversation, recordamos que Google Cloud ha anunciado nuevas fechas para la migración ya comunicada anteriormente de ciertas combinaciones de etiquetas de idioma y configuraciones de habla en Dialogflow CX y Dialogflow ES. Desde el 18 de marzo hasta el 15 de abril de 2024, el tráfico de audio de estos servicios se dirigirá gradualmente lejos de los modelos clásicos de Speech-to-Text (command_and_search, default, phone_call y video) hacia los nuevos modelos de habla basados en conformer. Ahora sí, veamos los nuevos parámetros disponibles.

Parámetros opcionales en Vertex AI Conversation

Cuando se trata de crear ejemplos para la herramienta del almacén de datos, hay dos parámetros adicionales que puedes incluir junto con la consulta principal:

  • Cadena de filtro (filter): permite filtrar las búsquedas de datos estructurados o no estructurados utilizando metadatos. La cadena de filtro debe seguir una sintaxis de expresión de filtro específica que la herramienta pueda entender. Proporcionar múltiples ejemplos de cómo utilizar este parámetro ayuda a que el modelo de lenguaje del agente comprenda cómo aplicar el filtro correctamente. Si la cadena de filtro no es válida, se ignorará durante la búsqueda.
  • Objeto estructurado de metadatos de usuario (userMetadata): Este objeto permite incluir metadatos adicionales relacionados con el usuario. Estos metadatos pueden ser útiles para refinar aún más las búsquedas o proporcionar información adicional sobre los datos recuperados. Se recomienda proporcionar varios ejemplos para indicarle al LLM la guía cómo propagar este parámetro.

Vamos a ver dos ejemplos:

Este es un ejemplo de una cadena filter para definir mejor los resultados de la búsqueda en función de la ubicación, en este caso, indica que el usuario está en Canadá.

El siguiente es un ejemplo de un valor del parámetro userMetadata para definir mejores los resultados de la búsqueda relevantes para un usuario específico. En este caso, el usuario ha indicado que su color favorito es el azul.

Estos dos parámetros opcionales en Vertex AI Conversation ofrecen mayor flexibilidad y control al realizar consultas en el almacén de datos, permitiendo filtrar los resultados según ciertos criterios y agregar información adicional mediante metadatos de usuario estructurados. Utilizar estos parámetros correctamente puede mejorar la precisión y relevancia de las consultas realizadas en el almacén de datos.

Claves adicionales para configurar los parámetros

Si durante las pruebas de la herramienta de almacén de datos encuentras que algunas respuestas no cumplen tus expectativas, puedes ajustar la confianza seleccionando uno de los cinco niveles: MUY BAJA, BAJA, MEDIA, ALTA y MUY ALTA.

También puedes elegir cómo quieres que el agente de almacén de datos genere resúmenes. Se puede hacer seleccionando un modelo generativo específico. Si no eliges ninguno, se usará uno predeterminado. Además, puedes personalizar el formato del resumen utilizando marcadores de posición como:

  • El texto de la consulta original del usuario
  • La consulta reescrita por el agente
  • Las fuentes utilizadas para responder
  • El historial de conversaciones

Por otro lado, puedes definir frases específicas que no deseas permitir en las respuestas generadas para mantener el control sobre el contenido generado. Si alguna respuesta contiene estas frases prohibidas, no se mostrará.

Y por último, si necesitas acceder a una funcionalidad que no está disponible a través de las herramientas de OpenAPI, puedes utilizar herramientas de función. Se ejecutan del lado del cliente y permiten una interacción más directa con tu código de cliente.

Deja un comentario