KI

Neue KI-Modelle für den universitären KI-Chat starten am 25. August

Ab dem 25. August stellt das ZDV zwei neue Modelle für den KI-Chat zur Verfügung.

GPT-OSS 120B und Qwen3 235B lösen Nemotron Ultra 253B ab

Das Modell GPT-OSS 120B zeichnet sich durch eine besonders effiziente Nutzung der Rechenressourcen aus und liefert Ergebnisse bei vergleichsweise geringem Energieverbrauch. Es reagiert schnell und zuverlässig, ohne die Server unnötig zu belasten.
GPT-OSS 120B liefert Lösungen für verschiedene Aufgabenstellungen, beispielsweise das Zusammenfassen von Texten, das Beantworten von Wissensfragen oder das Generieren kreativer Inhalte.

Qwen3 235B liefert mit aktiviertem Reasoning noch bessere Ergebnisse für Anwendungen in den Bereichen Wissenschaft, Technik und Softwareentwicklung. Es überzeugt durch fortschrittliche Fähigkeiten bei der Lösung komplexer Probleme, technischer Analyse oder der Architektur von Code. Die Variante ohne Reasoning kann bei der Arbeit mit Texten oder der Implementierung von Code eine wertvolle Alternative sein.

Insgesamt schneiden die Modelle in wichtigen Vergleichskategorien sehr gut ab und bilden die Spitze der frei verfügbaren Modelle. Eine Kernauswahl von acht wichtigen Benchmarks, die beispielsweise die Fähigkeiten zur Lösung mathematischer Aufgaben oder Programmieraufgaben bewerten, finden Sie unter https://artificialanalysis.ai/.

Weiterhin stehen Ihnen folgende Modelle zur Verfügung:
- Gemma3 27B für die Verarbeitung von Text und Bildern
- Qwen3 Coder 30B für schnelles und präzises Coding mit niedriger Komplexität

Vereinheitlichte Limits bei der Verarbeitung großer Textmengen

Die Textmenge, die die Modelle auf einmal verarbeiten können, wurde vereinheitlicht. Für alle Modelle stehen rund 64.000 Token, das sind ca. 50.000 Wörter, zur Verfügung. Token sind kleine Einheiten, in die das Modell Texte zerlegt, um sie zu verstehen. Je mehr Token, desto mehr Informationen kann der Chat gleichzeitig verarbeiten und berücksichtigen.

Beim Arbeiten mit Sprachmodellen gibt es eine Obergrenze, wie viel Text gleichzeitig verarbeiten werden kann. Wenn Sie ein Dokument hochladen, wählt das System automatisch nur die für Ihre Frage wichtigsten Textstellen aus. Diese ausgesuchten Textabschnitte sind so kurz, dass sie immer innerhalb der zulässigen Obergrenze von 64.000 Token liegen.

Die Obergrenze wird relevant, wenn Sie nach dem Hochladen die Option wählen, den ganzen Text des Dokumentes auf einmal an das Modell zu senden. Wenn der gesamte Text über die Obergrenze kommt, wird die Anfrage zurückgewiesen und Sie erhalten eine Fehlermeldung. Ebenso relevant ist die Grenze für diejenigen, die unsere API-Schnittstelle für eigene Anwendungen nutzen, denn hier muss meist die maximale Kontextgröße hinterlegt werden (Ausgabe-Token zählen hier nicht dazu).

Neuerungen und Anpassungen der letzten Monate

Wir aktualisieren und optimieren das System kontinuierlich, um Ihnen eine KI-Chat-Plattform auf möglichst hohem Niveau anzubieten. Die folgende Zusammenfassung zeigt Ihnen die wichtigsten nutzerseitigen Änderungen der letzten Monate.

Optimierter Websuchmechanismus: Unsere Suchfunktion wurde überarbeitet, um Ihnen noch schneller relevante Ergebnisse zu liefern und technische Probleme zu vermeiden.

Erweiterte Funktionen

  • Embeddings-API: Entwickler können auf unser Embedding-Modell bge-m3 zurückgreifen, um ihre Anwendungen noch besser mit unserem System zu integrieren.
  • OCR-Funktion: Auch Text aus gescannten Dokumenten wird nach dem Hochladen extrahiert und dem Sprachmodell zur Verfügung gestellt (kann ggf. 1-2 Minuten dauern).

Erweiterte Sprachfunktionen

  • Speech-to-Text/Transkription mit Whisper: Erstellen Sie Transkripte aus Audio- und Videodateien mit höchster Genauigkeit oder sprechen Sie Prompts per Mikrofon ein.
  • Text-to-Speech (englisch) mit Kokoro: Lassen Sie englische Texte laut vorlesen.

Benutzeroberfläche & Login:

  • Die Benutzeroberfläche wurde verbessert und die Schaltflächen sind schneller auffindbar.
  • Der Login findet nun über login.rlp.net statt.

Mehr Informationen zu den Modellen und weitere wichtige Hinweise finden Sie auf unserer Webseite:
https://www.zdv.uni-mainz.de/ki-an-der-jgu/



Mehr Neuigkeiten aus dem ZDV → finden Sie hier.

Veröffentlicht am | Veröffentlicht in Neuigkeiten | Verschlagwortet

Neuer KI-Dienst für die JGU verfügbar

Das Zentrum für Datenverarbeitung (ZDV) stellt einen neuen KI-Dienst für die Johannes Gutenberg-Universität Mainz (JGU) bereit. Dieser Dienst, der unter https://ki-chat.uni-mainz.de zugänglich ist, umfasst mehrere leistungsstarke Sprachmodelle, darunter Nemotron Ultra 253B, Gemma3 27B und Qwen2.5 Coder 32B.

Der KI-Chat steht zunächst ausschließlich Mitarbeitenden der JGU zur Verfügung, die sich mit ihrem JGU-Account anmelden können. Das ZDV kontrolliert und hostet den Dienst selbst, so bleiben die Daten (außer bei der Websuche) innerhalb der JGU.

Zukünftige Entwicklungen

Der neue Dienst soll zukünftig auch Studierenden zugänglich sein. Neben der regelmäßigen Aktualisierung der Sprachmodelle sind weitere Verbesserungen in Arbeit. Ziel ist es, die Suche und Extraktion von Dokumenten zu optimieren und einen permanenten Wissensspeicher zu schaffen. Anbindungen an Plattformen wie Moodle oder BBB und erste Integrationen (z. B. Taschenrechner) sind ebenfalls vorgesehen.

Mehr erfahren

Weitere Informationen zum Einsatz von KI in der Hochschulbildung sowie Unterstützung bei der Nutzung des Dienstes finden Sie auf der Webseite des Kompetenzteams Digitale Lehre https://digitale-lehre.uni-mainz.de/ki-in-der-hochschulbildung/.

Technische Hintergrundinformationen: https://www.zdv.uni-mainz.de/ki-an-der-jgu/



Mehr Neuigkeiten aus dem ZDV → finden Sie hier.

Veröffentlicht am | Veröffentlicht in Neuigkeiten | Verschlagwortet

KI an der JGU

Das ZDV stellt für die JGU einen KI-Dienst zur Verfügung. Dieser umfasst verschiedene große Sprachmodelle.

Anmelden

Voraussetzung ist ein JGU-Account, den Sie für die Anmeldung benötigen. Der KI-Chat steht Mitarbeitenden und Studierenden zur Verfügung.

Melden Sie sich unter https://ki-chat.uni-mainz.de mit den Anmeldedaten Ihres JGU-Accounts an.

Technische Grundlagen

Das ZDV kontrolliert und hostet den Dienst selbst, so bleiben die Daten (außer bei der Websuche) innerhalb der JGU.

Verfügbare KI-Modelle

Zukünftig ist ein Update der Modelle pro Semester angedacht. Dieses wird nach Möglichkeit in die vorlesungsfreie Zeit gelegt und vorher angekündigt.

Modell
Beschreibung
Herkunft / Wissensstand
Anwendung
GPT OSS 120B
Hocheffizientes Modell, benötigt weniger Rechenleistung, vergleichbar mit o3-mini/o4-mini, optional Reasoning* für verbesserte Logikfähigkeiten
OpenAI, Release 08/2025, Wissensstand 06/2024
Allgemeine Chat-Anwendung, Texte erstellen und zusammenfassen
Qwen3 235B (Thinking)
Duo aus zwei Modellen mit Bestleistungen, insbesondere in STEM**- und Coding-Anwendung (mit Reasoning) oder auch Textarbeit (ohne Reasoning)
Alibaba Cloud, Release 07/2025, Wissensstand 2024
STEM** (Reasoning an)
Agentic Coding (an/aus)
Textarbeit (aus)
Detailwissen (aus)
Gemma3 27B
Multimodales Modell zur Verarbeitung von Text & Bildern, trainiert auf über 140 Sprachen, beliebter Stil

Google, Release 03/2025, Wissensstand 08/2024

Bildverarbeitung
Textarbeit

Qwen3 Coder 30B
Spezialisiert auf Programmieraufgaben, akkurates & sehr schnelles Coding auf Niveau größerer Modelle

Alibaba Cloud, Release 08/2025, Wissensstand 10/2024

Niedrigkomplexes Coding

*Bezeichnet die Fähigkeit des Modells vor der Antwort einen internen Monolog zu generieren, um zu genaueren oder logischeren Antworten zu gelangen.
**Science, Technology, Engineering and Mathematics

Weitere Informationen dazu in der aktuellen Meldung:
https://www.zdv.uni-mainz.de/neue-modelle-fuer-uni-ki-chat/

Systemkomponenten

  1. Frontend (OpenWebUI): Benutzeroberfläche für die Interaktion.
  2. Load Balancer (LiteLLM): Zentrale Schnittstelle zu KI-Server(n).
  3. KI-Server (vllm): Führt die KI-Modelle auf den GPUs aus.

Funktionen und Anwendung im Überblick

Neuigkeiten und Geplantes

Alle Meldungen und Neuigkeiten gebündelt: https://www.zdv.uni-mainz.de/tag/ki/

Aktuell arbeiten wir an folgenden Projekten:

  • Freischaltung weiterer Features für den "Arbeitsbereich" (Prompts, Wissensbasis, ...)
  • "Auto"-Modus, d.h. je nach Prompt wird das passendste Modell automatisch gewählt
  •  Tool-Calling Integrationen (z.B. Suche in arXiv)

Die wichtigsten Fragen (FAQs) im Überblick

Wie optimiere ich meine Ergebnisse?

Für optimale Ergebnisse formulieren Sie Ihre Anfrage auf Englisch. Bei allen KI-Modellen ist die englische Sprache in den Trainingsdaten deutlich dominant.

Datenschutz

Sämtliche Komponenten des Systems werden vom Zentrum für Datenverarbeitung (ZDV) der Universität gehostet und betrieben, weshalb grundsätzlich alle Daten nur auf Servern des ZDVs verbleiben.

Die einzige Ausnahme ist zwangsläufig die Funktion Websuche. Bei aktivierter Websuche wird der Prompt des Users durch Informationen angereichert. Das kann bspw. das aktuelle Datum sein. Bei Bedarf wird der Prompt zusammengefasst an unseren Suchanbieter Tavily (https://www.tavily.com/) geschickt, um die Suchanfrage zu beantworten. Anschließend wird der Prompt gemäß Vertrag/Einstellung verworfen.

Grundsätzlich werden dabei keine Dateien oder Bilder mitgeschickt. In manchen Fällen kann das Modell, das die Suchanfrage generiert, jedoch relevante Informationen aus dem Kontext verwenden, um die Anfrage anzureichern.

Supportstrutkur

Supportanfragen senden Sie bitte aktuell an digitale-lehre@uni-mainz.de.

Informationen zum Thema KI in der Hochschulbildung:
https://digitale-lehre.uni-mainz.de/ki-in-der-hochschulbildung/

Veröffentlicht am