Esta documentación ha sido traducida automáticamente por IA.
Utilizar el nodo LLM en un flujo de trabajo le permite iniciar una conversación con un servicio LLM en línea, aprovechando las capacidades de los modelos grandes para asistir en la finalización de una serie de procesos de negocio.

Dado que las conversaciones con los servicios LLM suelen consumir mucho tiempo, el nodo LLM solo puede utilizarse en flujos de trabajo asíncronos.

Primero, seleccione un servicio LLM conectado. Si aún no ha conectado ningún servicio LLM, primero deberá añadir una configuración de servicio LLM. Consulte: Gestión de servicios LLM
Después de seleccionar un servicio, la aplicación intentará recuperar una lista de modelos disponibles del servicio LLM para que usted elija. Algunos servicios LLM en línea pueden tener APIs para obtener modelos que no se ajustan a los protocolos API estándar; en estos casos, los usuarios también pueden introducir manualmente el ID del modelo.

Puede ajustar los parámetros para invocar el modelo LLM según sea necesario.

Cabe destacar la configuración de Formato de respuesta. Esta opción se utiliza para indicar al modelo grande el formato de su respuesta, que puede ser texto o JSON. Si selecciona el modo JSON, tenga en cuenta lo siguiente:
Prompt, por ejemplo: "Tell me a joke about cats, respond in JSON with `setup` and `punchline` keys". De lo contrario, podría no haber respuesta, resultando en un error 400 status code (no body).El array de mensajes enviados al modelo LLM puede incluir un conjunto de mensajes históricos. Los mensajes admiten tres tipos:
Para los mensajes de usuario, siempre que el modelo lo admita, puede añadir múltiples piezas de contenido en un solo prompt, correspondientes al parámetro content. Si el modelo que está utilizando solo admite el parámetro content como una cadena (lo cual ocurre con la mayoría de los modelos que no admiten conversaciones multimodales), por favor, divida el mensaje en múltiples prompts, con cada prompt conteniendo solo una pieza de contenido. De esta manera, el nodo enviará el contenido como una cadena.

Puede utilizar variables en el contenido del mensaje para hacer referencia al contexto del flujo de trabajo.

Puede utilizar el contenido de respuesta del nodo LLM como una variable en otros nodos.
