Skip to content
This repository was archived by the owner on Sep 17, 2025. It is now read-only.

Commit 9a23975

Browse files
authored
add llm sections
1 parent 6630518 commit 9a23975

5 files changed

Lines changed: 142 additions & 2 deletions

File tree

_quarto-en.yml

Lines changed: 9 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -29,4 +29,12 @@ website:
2929
- text: "Course structure"
3030
href: content/tutorials/course-structure.qmd
3131
- text: "Set up an environment"
32-
href: content/tutorials/set-up-environment.qmd
32+
href: content/tutorials/set-up-environment.qmd
33+
- text: "LLM as a service"
34+
menu:
35+
- text: "Introduction"
36+
href: content/llm/introduction.qmd
37+
- text: "Use chatbot"
38+
href: content/llm/tchat.qmd
39+
- text: "Use the api"
40+
href: content/llm/api.md

_quarto-fr.yml

Lines changed: 9 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -26,4 +26,12 @@ website:
2626
- text: "Structurer le cours"
2727
href: content/tutorials/course-structure.qmd
2828
- text: "Configurer l'environnement"
29-
href: content/tutorials/set-up-environment.qmd
29+
href: content/tutorials/set-up-environment.qmd
30+
- text: "LLM à la demande"
31+
menu:
32+
- text: "Introduction"
33+
href: content/llm/introduction.qmd
34+
- text: "Utilisez le tchat"
35+
href: content/llm/tchat.qmd
36+
- text: "Utilsez l'api"
37+
href: content/llm/api.md

content/llm/api.qmd

Lines changed: 82 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,82 @@
1+
::: {.content-visible when-profile="fr"}
2+
3+
# Utiliser les LLM de façon programmatique
4+
5+
## Générer une clé d'API
6+
7+
Pour utiliser les Large Language Models (LLM) de façon programmatique, il est nécessaire de générer une clé d'API. Cette clé vous permettra d'authentifier vos requêtes et d'accéder aux fonctionnalités offertes par le service.
8+
9+
1. **Connexion à la plateforme** :
10+
- Accédez à la plateforme SSP Cloud via votre navigateur.
11+
- Connectez-vous avec vos identifiants SSO.
12+
13+
2. **Génération de la clé d'API** :
14+
- Une fois connecté, rendez-vous dans la section dédiée à la gestion des clés d'API.
15+
- Cliquez sur votre nom, puis sur "Paramètres" et ensuite sur "Compte".
16+
- Une section dédiée permet de générer une clé d'API.
17+
18+
3. **Sécurisation de la clé** :
19+
- Vous pourrez accéder à votre clé à tout moment.
20+
- Ne la partagez pas publiquement pour éviter tout accès non autorisé.
21+
22+
## Comprendre l'API proposée par OpenWebUI
23+
24+
L'API proposée par OpenWebUI permet d'interagir avec les LLM de manière programmatique. Voici quelques points clés pour comprendre et utiliser cette API.
25+
26+
### Endpoints disponibles
27+
28+
Une interface OpenAI est disponible :
29+
- **Endpoint de base** : `https://llm.lab.sspcloud.fr/api`
30+
- **Authentification** : Toutes les requêtes doivent inclure votre clé d'API dans l'en-tête `Authorization`.
31+
32+
Un proxy vers l'interface Ollama est également disponible :
33+
- **Endpoint de base** : `https://llm.lab.sspcloud.fr/ollama`
34+
- **Authentification** : Toutes les requêtes doivent inclure votre clé d'API dans l'en-tête `Authorization`.
35+
36+
::: {.callout-warning}
37+
Les clients programmatiques Ollama possèdent rarement la capacité d'ajouter une clé d'API. Ce proxy est donc difficilement utilisable.
38+
:::
39+
40+
:::
41+
42+
43+
44+
::: {.content-visible when-profile="en"}
45+
46+
# Using LLMs Programmatically
47+
48+
## Generating an API Key
49+
50+
To use Large Language Models (LLM) programmatically, it is necessary to generate an API key. This key will allow you to authenticate your requests and access the features offered by the service.
51+
52+
1. **Connecting to the Platform** :
53+
- Access the SSP Cloud platform via your browser.
54+
- Log in with your SSO credentials.
55+
56+
2. **Generating the API Key** :
57+
- Once logged in, go to the section dedicated to API key management.
58+
- Click on your name, then on "Settings" and then on "Account".
59+
- A dedicated section allows you to generate an API key.
60+
61+
3. **Securing the Key** :
62+
- You will be able to access your key at any time.
63+
- Do not share it publicly to avoid unauthorized access.
64+
65+
## Understanding the API Provided by OpenWebUI
66+
67+
The API provided by OpenWebUI allows you to interact with LLMs programmatically. Here are some key points to understand and use this API.
68+
69+
### Available Endpoints
70+
71+
An OpenAI interface is available:
72+
- **Base Endpoint** : `https://llm.lab.sspcloud.fr/api`
73+
- **Authentication** : All requests must include your API key in the `Authorization` header.
74+
75+
A proxy to the Ollama interface is also available:
76+
- **Base Endpoint** : `https://llm.lab.sspcloud.fr/ollama`
77+
- **Authentication** : All requests must include your API key in the `Authorization` header.
78+
79+
::: {.callout-warning}
80+
Ollama programmable clients rarely have the capability to add an API key. This proxy is therefore difficult to use.
81+
:::
82+
:::

content/llm/introduction.qmd

Lines changed: 27 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,27 @@
1+
::: {.content-visible when-profile="fr"}
2+
3+
# Introduction
4+
Le SSP Cloud est une plateforme de traitement de données dédiée à l'expérimentation autour des méthodes de data science, en utilisant des données ouvertes. Elle offre un environnement mutualisé pour les utilisateurs, leur permettant de lancer, personnaliser et gérer divers services de manière autonome. Parmi les services disponibles, la mise à disposition de Large Language Models (LLM) à la demande représente une avancée significative. Ces modèles permettent d'automatiser des tâches complexes, d'accélérer l'accès à l'information et d'optimiser les processus métiers. Les LLM facilitent les interactions via le traitement du langage naturel, offrant ainsi des solutions adaptées aux besoins spécifiques des utilisateurs. En intégrant ces technologies, le SSP Cloud se positionne comme un levier essentiel pour améliorer la formation et le maquettage dans le domaine de l'intelligence artificielle.
5+
6+
# Architecture
7+
Le service de mise à disposition des Large Language Models (LLM) à la demande sur le SSP Cloud repose sur une architecture innovante et modulaire. Au cœur de cette architecture se trouve une instance OpenWebUI, qui sert d'interface utilisateur ouverte et flexible. Cette instance OpenWebUI interagit directement avec Ollama, une plateforme avancée de gestion et de déploiement de modèles de langage. Grâce à cette configuration, les utilisateurs peuvent facilement accéder, personnaliser et déployer des modèles LLM selon leurs besoins spécifiques. La liste des modèles disponibles est gérée par les administrateurs de la plateforme et est susceptible d'évoluer au fil du temps pour répondre aux nouvelles exigences et aux avancées technologiques.
8+
9+
::: {.callout-warning}
10+
SSPCloud ne fournit pas d’accords de niveau de service (SLA) formels ni de garanties concernant la disponibilité du service. Cela signifie que les utilisateurs doivent être prêts à faire face à des interruptions ou des pannes de service potentielles.
11+
:::
12+
:::
13+
14+
15+
16+
::: {.content-visible when-profile="en"}
17+
18+
# Introduction
19+
SSP Cloud is a data processing platform dedicated to experimenting with data science methods using open data. It offers a shared environment for users to launch, customize, and manage various services autonomously. Among the available services, the on-demand provisioning of Large Language Models (LLM) represents a significant advancement. These models enable the automation of complex tasks, accelerate information access, and optimize business processes. LLMs facilitate interactions through natural language processing, thus offering solutions tailored to users' specific needs. By integrating these technologies, SSP Cloud positions itself as a key lever to improve training and prototyping in the field of artificial intelligence.
20+
21+
# Why use SSP Cloud for Training?
22+
The service for providing Large Language Models (LLM) on demand in the SSP Cloud is based on an innovative and modular architecture. At the heart of this architecture is an instance of OpenWebUI, which serves as an open and flexible user interface. This OpenWebUI instance interacts directly with Ollama, an advanced platform for managing and deploying language models. Thanks to this configuration, users can easily access, customize, and deploy LLM models according to their specific needs. The list of available models is managed by the platform administrators and is likely to evolve over time to meet new requirements and technological advancements.
23+
24+
::: {.callout-warning}
25+
SSPCloud does not provide formal service level agreements (SLAs) or guarantees regarding service availability. This means that users should be prepared for potential service interruptions or downtimes.
26+
:::
27+
:::

content/llm/tchat.qmd

Lines changed: 15 additions & 0 deletions
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,15 @@
1+
::: {.content-visible when-profile="fr"}
2+
3+
# Comment utilisez le service ?
4+
La manière la plus simple d'utiliser le service est d'utiliser l'interface de chat proposée par OpenWebUI. Il suffit de se connecter au service via https://llm.lab.sspcloud.fr en utilisant l'authentification SSO de la plateforme, puis de démarrer une nouvelle conversation en sélectionnant le modèle souhaité.
5+
6+
:::
7+
8+
9+
10+
::: {.content-visible when-profile="en"}
11+
12+
# How to use this service ?
13+
The easiest way to use the service is to utilize the chat interface provided by OpenWebUI. Simply log in to the service at https://llm.lab.sspcloud.fr using the platform's SSO authentication, and then start a new conversation by selecting the desired model.
14+
15+
:::

0 commit comments

Comments
 (0)