
OpenAI właśnie opublikowało modele o otwartych wagach – GPT-OSS 120B i GPT-OSS 20B.
To przełomowa decyzja, która oznacza powrót OpenAI do filozofii “open source” i umożliwia uruchamianie potężnych modeli językowych lokalnie na własnym sprzęcie.
GPT-OSS 120B – wielki model do trudnych zastosowań:
GPT-OSS 20B – lekki model do codziennej pracy
Licencja Apache 2.0 – pełna swoboda komercyjnego wykorzystania, modyfikacji i dystrybucji
Konfigurowalny poziom rozumowania – trzy tryby (niski, średni, wysoki)
Pełny Chain-of-Thought – dostęp do procesu myślenia modelu
Możliwość fine-tuningu – pełne dostosowanie do konkretnych przypadków użycia
Zdolności agentowe – wywołania funkcji, przeglądanie internetu, wykonywanie kodu Python
Natywna kwantyzacja MXFP4 – umożliwia efektywne działanie na pojedynczych GPU


Następnie wpisujesz swój Prompt – wybierasz poziom Reasoing Effort – tak jak pisałem mamy 3 do wyboru (Low, Medium i High).

Klikasz Enter – i cieszysz się własnym modelem LLM od OpenAI na swoim komputerze – prawda, że proste! Należy jednak pamiętać, że modele hostowane lokalnie są zazwyczaj znacznie słabsze niż te ogólnie dostępne. W przypadku naszej zagadki – nawet przy ustawieniu rozumowania na High – dostajemy odpowiedź, która pozostawia wiele do życzenia.

W przypadku ustawienia rozumowania na High – model przekroczył kontekst i nie dostałem odpowiedzi. A sama odpowiedź u mnie trwała około 11 min. – Szkoda.

Stwierdziłem więc, że to może wina mojego PC – demonem to on nie jest. I odpaliłem modele Online.
Dla modelu 20B – jest tak samo – brak odpowiedzi:

Model 120B jednak sobie poradził całkiem ładnie i szybko (12s). Szkoda tylko, że ma takie wymagania na zasoby.

Standardowy ChatGPT od OpenAI radzi sobie z tym znacznie lepiej i szybciej. Więc dla codziennej pracy zostanę jednak przy otwartych modelach.

Pokazuje to, że ciągle nawet pomimo liczb podawanych w miliardach – modele lokalne znacznie odstają od swoich rówieśników.
UWAGA: Oczywiście zależnie od mocy obliczeniowej twojego PC może to potrwać znacznie dłużej niż na Otwartych modelach OpenAI.
ollama pull gpt-oss:20bollama pull gpt-oss:120bollama run gpt-oss:20bBash
pip install transformers torchPython
from transformers import pipeline
# Automatyczne rozmieszczenie na GPU
generator = pipeline(
"text-generation",
model="openai/gpt-oss-20b",
device_map="auto"
)
result = generator("Wyjaśnij machine learning", max_length=200)
Dla GPT-OSS 20B:
Dla GPT-OSS 120B:
Modele są także dostępne przez:




