Anthropic vs. OpenAI? ChatGPT-Konkurrenzsoftware Claude kommt nach Europa

Quelle: dpa 2 min Lesedauer

Anbieter zum Thema

ChatGPT bekommt in Deutschland einen neuen starken Konkurrenten. Die Firma Anthropic bringt ihren KI-Chatbot Claude nach Europa. Auch Claude kann mit Hilfe Künstlicher Intelligenz unter anderem Sätze auf dem Niveau eines Menschen formulieren und den Inhalt von Texten zusammenfassen.

ChatGPT bekommt Konkurrenz von Claude AI von Anthropic.(Bild:  Limitless Visions - stock.adobe.com)
ChatGPT bekommt Konkurrenz von Claude AI von Anthropic.
(Bild: Limitless Visions - stock.adobe.com)

Tests hätten gezeigt, dass der ChatGPT-Konkurrent Claude der Firma Anthropic sehr gut unter anderem auf Deutsch, Französisch und Italienisch funktioniere, sagte Anthropic-Mitgründer Jack Clark der Deutschen Presse-Agentur zum Start am Dienstag. In Europa werden die Web-Version, die iPhone-App und eine Variante für Unternehmen verfügbar sein.

Anthropic brachte im März die aktuelle Generation Claude 3 heraus, die in einigen technischen Tests die Leistung des GPT-4-Modells des ChatGPT-Entwicklers OpenAI übertraf. Wenige Stunden vor Bekanntgabe des Europa-Starts von Claude stellte OpenAI allerdings eine sprechende Version von ChatGPT vor, die sich mit Nutzern wie ein Mensch unterhalten kann. Dabei geht die Software auch auf visuelle Informationen ein, die sie über die Smartphone-Kamera bekommt. Von Google werden bei der Entwicklerkonferenz Google I/O ebenfalls Neuerungen bei KI-Assistenten erwartet.

Bislang keine Datenspeicherung in Europa

Anthropic verwies darauf, dass Claude auch lange Texte zusammenfassen und Fragen dazu beantworten kann. Damit könne die Software besonders nützlich unter anderem für Rechtsexperten sowie in der Medizin und Finanzbranche sein, betonte Mitgründer Jared Kaplan. Die Firma sieht bislang keine Datenspeicherung in Europa vor, sei aber offen dafür, wenn Kunden sich das wünschen sollten. Zugleich seien Kundendaten stets verschlüsselt und damit nur für sie zugänglich.

Anthropic sei auch erfolgreich damit gewesen, sogenannte „Halluzinationen“ zu reduzieren, bei denen die Software falsche Angaben macht, sagte Kaplan. Die „Halluzinationen“ sind ein grundsätzliches Problem von KI-Programmen, die mit ihrer Funktionsweise zusammenhängen. Die Software wird mit riesigen Mengen an Informationen angelernt. Beim Formulieren von Texten entscheidet sie Wort für Wort, wie ein Satz wahrscheinlich weitergehen soll. Dabei können völlig falsche Angaben herauskommen, selbst wenn die KI-Modelle nur mit korrekten Informationen gefüttert wurden. Anthropic versucht bei Claude, solche Fehler durch den Abgleich mit Fakten zu minimieren. Auf ähnliche Weise wird auch mit Grundsatz-Regeln abgeglichen, um Beleidigungen oder Diskriminierung zu verhindern.

(ID:50032210)

Wissen, was läuft

Täglich die wichtigsten Infos aus dem ITK-Markt

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung. Die Einwilligungserklärung bezieht sich u. a. auf die Zusendung von redaktionellen Newslettern per E-Mail und auf den Datenabgleich zu Marketingzwecken mit ausgewählten Werbepartnern (z. B. LinkedIn, Google, Meta).

Aufklappen für Details zu Ihrer Einwilligung