Službu LLM si můžete spustit dvěma způsoby:
Po zřízení služby vám systém vygeneruje unikátní token, který slouží k autorizaci vašich API volání.
Token je unikátní a zajišťuje bezpečný přístup jen pro vás - s nikým ho nesdílejte. Pokud by došlo k jeho kompromitaci, v Centru administrace můžete token snadno přegenerovat a okamžitě obnovit bezpečnost přístupu. Následně nezapomeňte vyměnit token ve vaší aplikaci.
Aktuálně máte k dispozici 2 výkonné modely, které nabízí vysokou přesnost a rychlé reakce i u komplexních dotazů. Jakmile budete API volat z vlastní aplikace, mělo by vše fungovat totožně.
Vygenerovaný přístupový token bude v tomto tvaru:
0cf60d613d82429f8788160791cd66a5 (jedná se pouze o příklad)
S jeho pomocí následně můžete:
Upozornění: V následujících příkladech nahraďte text YOUR_API_TOKEN vlastním unikátním tokenem vygenerovaným v Centru administrace.
Ukázka rychlého testu pro GEMMA 3 27B:
curl -X POST https://llm.airgpt.cz/api/chat \
-H "Authorization: Bearer YOUR_API_TOKEN" \
-H "Content-Type: application/json" \
-d '{
"model": "gemma3:27b",
"stream": false,
"messages": [
{
"role": "user",
"content": "Proč je obloha modrá?"
}
]
}'
Ukázka rychlého testu pro GPT-OSS 120B:
curl -X POST https://llm.airgpt.cz/api/chat \
-H "Authorization: Bearer YOUR_API_TOKEN" \
-H "Content-Type: application/json" \
-d '{
"model": "gpt-oss:120b",
"stream": false,
"messages": [
{
"role": "user",
"content": "Proč je tráva zelená?"
}
]
}'
Během pár vteřin uvidíte odpověď modelu a ověříte, že token funguje správně.
Token jednoduše vložíte do volání API a model okamžitě reaguje. Pokud zatím nemáte vlastní aplikaci, využijte pro testování například:
import urllib.request
import json
req = urllib.request.Request(
"https://llm.airgpt.cz/api/chat",
data=json.dumps({
"model": "gemma3:27b",
"stream": False,
"messages": [{
"role": "user",
"content": "Proč je obloha modrá?"
}]
}).encode(),
headers={
"Authorization": "Bearer YOUR_API_TOKEN",
"Content-Type": "application/json"
}
)
print(urllib.request.urlopen(req).read().decode())
Přesvědčte se sami o síle nejvýkonnější AI GPU na trhu.
Otestujte LLM s API a plaťte až po vyzkoušení.
Pokud si nevíte rady s integrací, modely nebo doporučenými aplikacemi, neváhejte se obrátit na náš tým podpory.