Saltar al contenido principal

Integración de IA

El Microservicio de Integración de IA es un componente centralizado diseñado para gestionar y simplificar la conexión con distintos proveedores de inteligencia artificial. Actualmente, es compatible con OpenAI, lo que permite la integración de agentes de IA en el metaverso.

Para crear un agente de IA en XR Creator, primero debes configurar un asistente en OpenAI y luego conectarlo a tu agente dentro de XR Creator.

1. Cómo Crear un Asistente en OpenAI

Sigue estos pasos para configurar un asistente en OpenAI que potenciará tu agente de IA en el metaverso.

Paso 1: Crear una Cuenta en OpenAI

Paso 2: Generar una Clave API de OpenAI

  1. Ingresa al Panel de OpenAI.
  2. Navega hasta la sección de Claves API.
  3. Haz clic en Crear nueva clave secreta.
  4. Asigna un nombre, selecciona un proyecto y establece los permisos de seguridad.
  5. Copia y guarda tu clave API en un lugar seguro, ya que no podrás verla nuevamente.

Botón para crear clave API

Paso 3: Crear un Asistente

  1. Accede a la Página de Asistentes.
  2. Haz clic en Crear para configurar un nuevo asistente.

Crear un asistente

  1. Asigna un nombre y proporciona instrucciones detalladas (hasta 256,000 caracteres).
  2. Sube los archivos necesarios para la base de conocimiento del asistente.
  3. Activa la herramienta File Search para que el asistente pueda recuperar información.

Activar búsqueda de archivos

  1. Copia el ID del Asistente para su uso futuro. Puedes encontrarlo debajo del nombre de tu asistente.

ID del asistente

2. Cómo Crear Agentes de IA en el Editor XR

Una vez que hayas configurado un asistente en OpenAI, puedes integrarlo en tu proyecto XR.

Paso 1: Crear un Agente de IA en XR Creator

  1. Abre tu proyecto en el Editor XR.
  2. En el Menú de Elementos, selecciona AI Agent.

AI Agent en el Menú de Elementos

Paso 2: Configurar las Propiedades del Agente de IA

En el Panel de Propiedades, puedes establecer los parámetros para conectar tu asistente.

Panel de Propiedades del Agente de IA

  • Proveedor: Selecciona el servicio de IA (actualmente solo se admite OpenAI).
  • Clave API de OpenAI: Ingresa tu clave API secreta de manera segura.
  • Nombre del Agente: Este nombre aparecerá en la interfaz de chat.
  • ID del Asistente: Es el identificador único (asst_...) de OpenAI, que puedes encontrar en la Página del Asistente.
  • Opciones de Voz:
    • OpenAI – Usa la generación de voz de OpenAI.
    • WebAPI – Usa la síntesis de voz basada en navegador (puede variar según el navegador).
    • Silencio – El agente solo se comunicará a través del chat de texto.
  • Emitir Eventos: Activa esta opción para habilitar eventos que pueden usarse en scripting dentro del mundo virtual.
  • Habilitar Proximidad: Permite que el agente detecte cuándo un usuario entra o sale de un área definida.

Solo la Clave API de OpenAI y el ID del Asistente son obligatorios. Una vez configuradas las propiedades, puedes publicar tu proyecto y contar con un Agente de IA completamente funcional.

3. Sistema de Eventos del Agente de IA

Cuando la opción Emitir Eventos está activada, el Agente de IA puede generar diversas interacciones en el mundo virtual:

EventoDescripción
user-enterSe activa cuando un usuario entra en la región de proximidad del agente. Este evento solo se activa si ‘Emitir eventos’ está habilitado y la opción ‘Habilitar proximidad’ está activada en el componente del Agente de IA.
user-leaveSe activa cuando un usuario sale de la región de proximidad del Agente de IA. Se emite si 'Emitir eventos' está activado y se está usando ‘Habilitar proximidad’.
agent-talk-startSe emite cuando el agente comienza a hablar. Si el audio se reproduce con el botón de reproducción, también se emite cada vez que inicia la secuencia de síntesis de voz.
agent-talk-talkingSe emite continuamente mientras el agente habla, enviando la amplitud modulada de la onda sonora. Cuando se suscribe a este evento, la onda de sonido llega como un valor flotante en los controladores del evento. amp es similar al valor utilizado en MUDz para la animación de escala de los avatares cuando hablan. Aquí, se tomaría para enviar el valor del audio del agente hablando.
agent-talk-endSe emite cuando el agente termina de hablar.
agent-thinkingSe emite cuando el agente está "pensando", es decir, cuando aparecen los puntos suspensivos en el chat.