Sprachmodelle

Im KI-Chat stehen mehre große Sprachmodelle (Large Language Models – LLM) zur Verfügung.

LLMs (Large Language Models) sind KI-Modelle, die durch Training auf großen Textdaten menschenähnlichen Text generieren. Sie nutzen neuronale Netze (z. B. Transformer), um Wortwahrscheinlichkeiten vorherzusagen.

Large Language Modelle unterscheiden sich hinsichtlich Architektur, Modellgröße, Kontextlänge, Trainingsdatenqualität und -breite, Feinabstimmung sowie unterstützten Modalitäten. Diese Faktoren beeinflussen Genauigkeit, Halluzinationsrate, Geschwindigkeit und Hardwarebedarf, Datenschutz- und Lizenzaspekte sowie die Eignung für Aufgaben wie Codieren, Übersetzen, Reasoning oder Domänenspezialisierung.

LLMs sind schwer direkt vergleichbar, da sie unterschiedliche Trainingsdaten, Architekturen und Optimierungsziele nutzen, was zu spezifischen Stärken und Schwächen in verschiedenen Aufgabenbereichen führt. Standardisierte Benchmarks wie MMLU oder HELM bieten zwar eine grobe Orientierung, erfassen aber oft nicht die praktische Anwendbarkeit oder ethischen Aspekte wie Bias und Ressourcenverbrauch. Sie haben die Wahl.

gpt-oss-120b

gpt-oss-120b, OpenAI

GPT-OSS 120B ist ein großes, offenes Sprachmodell von OpenAI mit etwa 117 Milliarden Parametern, das unter der Apache-2.0-Lizenz veröffentlicht wurde. Es ist für hohe Reasoning-Fähigkeiten optimiert und erreicht Leistungsniveaus, die mit denen von OpenAI’s o4-mini vergleichbar sind.

Juni 2024

Entwickelt von Mistral AI, ist Mistral Large Instruct 2407 ein dichtes Sprachmodell mit 123 Milliarden Parametern. Es erzielt hervorragende Benchmark‑Ergebnisse in allgemeiner Leistung, Code‑ und Reasoning‑Aufgaben sowie beim Befolgen von Anweisungen. Darüber hinaus ist es mehrsprachig und unterstützt zahlreiche europäische und asiatische Sprachen.

Juli 2024

Mistral Large Instruct

Mistral

Teuken 7B Instruct Research

OpenGPT-X

OpenGPT-X ist ein Forschungsprojekt, das vom Bundesministerium für Wirtschaft und Klimaschutz (BMWK) gefördert wird und von Fraunhofer, dem Forschungszentrum Jülich, der TU Dresden sowie dem DFKI geleitet wird.

Teuken 7B Instruct Research v0.4 ist ein instruktions‑abgestimmtes, multilingual‑LLM mit 7 Milliarden Parametern, das mit 4 Billionen Tokens vortrainiert wurde und darauf abzielt, alle 24 EU‑Sprachen abzudecken und europäische Werte widerzuspiegeln.

September 2024

SauerkrautLM wurde von VAGOsolutions auf Llama 3.1 70 B trainiert, speziell für Prompts auf Deutsch.

Dezember 2023

Llama 3.1 SauerkrautLM 70B Instruct

VAGOsolutions x Meta

Qwen 3 235B A22B Thinking 2507

Alibaba Cloud

Qwen 3 235B A22B Thinking 2507 ist eines der leistungsstärksten Modelle der Qwen‑3‑Serie. Es weist eine deutlich verbesserte Performance bei Reasoning‑Aufgaben gegenüber Qwen 3 235B A22B auf, einschließlich logischem Schließen, Mathematik, Naturwissenschaften, Programmierung und akademischen Benchmarks. Dabei handelt es sich um ein MoE‑Modell (Mixture‑of‑Experts) mit insgesamt 235 Billionen Parametern, von denen gleichzeitig 22 Billionen aktiv sind. Das Modell erzielt damit State‑of‑the‑Art‑Ergebnisse unter den offenen „Thinking“-Modellen.

April 2025

Erreicht eine insgesamt gute Leistung, vergleichbar mit GPT‑4, jedoch mit einem deutlich größeren Kontextfenster und einem aktuelleren Wissensstand. Beste Ergebnisse im englischen Textverständnis sowie bei weiterführenden sprachlichen Schlussfolgerungen, wie Übersetzungen, dem Verstehen von Dialekten, Slang, Umgangssprache und kreativen Texten.

Dezember 2023

Llama 3.1 8B Instruct

Meta

Gemma 3 27B Instruct

Google

Gemma ist Googles Familie von leichten Open‑Weight‑Modellen, die mit derselben Forschung entwickelt wurden, die auch für die kommerzielle Gemini‑Modellreihe verwendet wurde. Gemma 3 27B Instruct ist recht schnell und dank seiner Vision‑Unterstützung (Bildeingabe) eine hervorragende Wahl für sämtliche Arten von Gesprächen.

März 2024