Google DeepMind veröffentlicht Gemini 2.5 Pro- und Flash-Modelle und stellt Flash-Lite 2.5 in der Vorschau vor
In Kürze Die Gemini 2.5 Flash- und Pro-Modelle von Google DeepMind sind jetzt allgemein verfügbar, wobei das 2.5 Flash-Lite – das kostengünstigste und schnellste Modell der 2.5-Serie – als Vorschau vorgestellt wurde.
KI-Abteilung des Technologieunternehmens Google, Google DeepMind hat die Modelle Gemini 2.5 Pro und Gemini 2.5 Flash veröffentlicht und damit allgemein verfügbar gemacht. Außerdem wurde eine Vorschauversion des Gemini 2.5 Flash-Lite vorgestellt, das als das bislang kostengünstigste und schnellste Modell der 2.5-Serie gilt.
Gemini 2.5 Pro ist das fortschrittlichste Modell der Gemini-Reihe und wurde für Aufgaben entwickelt, die komplexes Denken, Codegenerierung, Problemlösung, multimodale Eingabeverarbeitung und erweitertes Kontextverständnis erfordern. Das Modell unterstützt multimodale Eingaben wie Text, Bilder, Audio, Video und Dokumente und verfügt derzeit über ein Kontextfenster von etwa einer Million Token, das in Kürze auf zwei Millionen erweitert werden soll. Es beinhaltet strukturierte Denkmechanismen und die Funktion „Deep Think“, die die parallele Verarbeitung komplexer Denkschritte ermöglicht. Leistungskennzahlen zeigen hohe Werte in Bereichen wie Programmierung, wissenschaftliches Denken und Mathematik, basierend auf Ergebnissen von Benchmarktests wie LMArena und Humanity's Last Exam.
Gemini 2.5 Flash ist ein Hochdurchsatzmodell, das auf Effizienz und Kosten optimiert ist und gleichzeitig eine starke Leistung in allgemeinen Anwendungsszenarien bietet. Es ist seit Mitte Juni 2025 verfügbar und verfügt standardmäßig über Reasoning-Funktionen, die über API-Einstellungen angepasst werden können. Das Modell zeigt Verbesserungen in Benchmarks in den Bereichen Codierung, Reasoning, Long-Context-Verständnis und multimodale Funktionalität. Die Token-Effizienz wurde ebenfalls gesteigert, wobei die Kosten pro Vorgang auf 0.30 US-Dollar für eine Million Eingabe-Token und 2.50 US-Dollar für eine Million Ausgabe-Token gesenkt wurden.
Der Ankündigung zufolge werden Gemini 2.5-Modelle derzeit von Entwicklern und Organisationen wie Spline, Rooms, Snap und SmartBear für Anwendungen auf Produktionsebene verwendet.
Google DeepMind stellt Gemini 2.5 Flash-Lite Preview vor und verbessert Leistung und Effizienz für KI-Aufgaben mit hohem Volumen und geringer Latenz
Eine Vorabversion von Gemini 2.5 Flash-Lite wurde vorgestellt. Es gilt als das schnellste und kostengünstigste Modell der 2.5-Familie. Das Modell ist bereits für den Einsatz verfügbar. Feedback von Entwicklern ist während der Vorabversion willkommen.
Gemini 2.5 Flash-Lite soll im Vergleich zu seinem Vorgänger Gemini 2.0 Flash-Lite in mehreren Leistungsbereichen – darunter Programmierung, Mathematik, wissenschaftliches Denken und multimodale Aufgaben – Verbesserungen aufweisen. Es ist für Anwendungen mit hohem Volumen und geringer Latenz wie Übersetzung und Klassifizierung optimiert und weist im Vergleich zu 2.0 Flash-Lite und 2.0 Flash bei verschiedenen Eingabeaufforderungen kürzere Reaktionszeiten auf.
Das Modell beinhaltet Schlüsselfunktionen, die in anderen Gemini 2.5-Versionen , wie etwa die Möglichkeit, Denkprozesse innerhalb variabler Budgetgrenzen zu aktivieren, die Integration mit externen Tools wie Google Search und Codeausführungssystemen, die Unterstützung multimodaler Eingaben und ein Kontextfenster mit einer Million Token.
Die Vorschauversion von Gemini 2.5 Flash-Lite ist derzeit über Google AI Studio und Vertex AI verfügbar und wird dort parallel zu den stabilen Versionen von Gemini 2.5 Flash und Gemini 2.5 Pro angeboten. Diese Modelle sind auch über die mobile Gemini-App verfügbar. Benutzerdefinierte Bereitstellungen von 2.5 Flash und Flash-Lite wurden in die Google-Suchdienste integriert.
Haftungsausschluss: Der Inhalt dieses Artikels gibt ausschließlich die Meinung des Autors wieder und repräsentiert nicht die Plattform in irgendeiner Form. Dieser Artikel ist nicht dazu gedacht, als Referenz für Investitionsentscheidungen zu dienen.
Das könnte Ihnen auch gefallen
PUMPUSDT jetzt eingeführt für das Futures-Trading und Trading-Bots
USELESSUSDT jetzt eingeführt für das Futures-Trading und Trading-Bots
Neue Spot-Margin-Handelspaare - LA/USDT
AINUSDT jetzt eingeführt für das Futures-Trading und Trading-Bots
Im Trend
MehrKrypto Preise
Mehr








