Esta documentación ha sido traducida automáticamente por IA.
Antes de usar el Empleado IA, necesita conectar un servicio LLM en línea. NocoBase actualmente soporta los servicios LLM en línea más populares, como OpenAI, Gemini, Claude, DepSeek, Qwen, entre otros. Además de los servicios LLM en línea, NocoBase también permite conectar modelos locales de Ollama.
Vaya a la página de configuración del plugin de Empleado IA, haga clic en la pestaña LLM service para acceder a la página de gestión de servicios LLM.

Pase el cursor sobre el botón Add New en la esquina superior derecha de la lista de servicios LLM y seleccione el servicio LLM que desea utilizar.

Tomando OpenAI como ejemplo, en la ventana emergente, introduzca un title fácil de recordar y luego la API key obtenida de OpenAI. Haga clic en Submit para guardar y así completará la configuración del servicio LLM.
Normalmente, puede dejar el campo Base URL en blanco. Si está utilizando un servicio LLM de terceros compatible con la API de OpenAI, por favor, rellene la Base URL correspondiente.

En la página de configuración del servicio LLM, haga clic en el botón Test flight, introduzca el nombre del modelo que desea usar y luego haga clic en el botón Run para verificar si el servicio LLM y el modelo están disponibles.
