Produkte

Saudische KI-Firma launcht einen Halal-Chatbot

Humain ist ein KI-Unternehmen aus Saudi-Arabien, das im Mai 2025 von Mohammed bin Salman gegründet wurde. Er ist gleichzeitig Kronprinz und Premierminister des arabischen Staates, der seinen Bürgern strenge Sitten- und Verhaltensregeln im Einklang mit den Gesetzen der islamischen Scharia auferlegt. 

Nun hat Humain einen Chatbot präsentiert, der mit den saudischen Werten kompatibel sein soll – also „halal“ ist. Die App „Humain Chat“ soll eine Chatbot-Alternative für muslimische Menschen sein, die ein sittengerechtes Leben führen wollen.

➤ Mehr lesen: ChatGPT-Konkurrent: Apple arbeitet an eigenem KI-Chatbot

Wie kann ein Chatbot halal sein?

Der Humain-Chatbot wurde mit Bedacht auf islamischen Regeln und kulturellem Erbe auf Grundlage des Sprachmodells (LLM) Allam entwickelt, wie das Unternehmen laut Bloomberg am Montag mitteilte. Die erste Version ist nur in Saudi-Arabien verfügbar und soll zweisprachig auf Englisch und Arabisch funktionieren. Ein weiteres Plus: „Humain Chat“ soll sogar mehrere Dialekte wie Ägyptisch und Libanesisch beherrschen. 

Halal ist nach islamischem Glaubensrecht alles, was „erlaubt“ ist. Viele Dinge können halal sein: Bestimmte Lebensmittel wie das Fleisch von gewissen Tierarten, die auf bestimmte Weise geschlachtet wurden, Finanzprodukte oder Verhaltensweisen im öffentlichen Raum. Es ist alles halal, was im Sinne der islamischen Ethik richtig und gut ist. Im Gegensatz dazu steht das Verbotene, es wird mit haram bezeichnet.

Tareq Amin, der CEO des Tech-Unternehmens sagte, dass der Launch „einen historischen Meilenstein in unserer Mission darstellt, eine souveräne KI zu entwickeln, die sowohl technisch fortschrittlich als auch kulturell authentisch ist.“ Bei der Entwicklung habe sein Unternehmen vor allem auf saudische Experten gesetzt. Von insgesamt 120 KI-Spezialisten sei die Hälfte weiblich gewesen.

➤ Mehr lesen: So soll verhindert werden, dass KI dich unfair behandelt

Humain-Chef Tareq Amin mit NVDIA-Boss Jensen Huang im Mai 2025.

Sicherheitsschranken nach saudischem Rezept

Das LLM Allam trainierten die Saudis mit Datensets, die im Einklang mit den dort herrschenden islamischen Werten stehen. Zusätzlich haben die Betreiber „Sicherheitsschranken“ eingebaut, die dem saudischen Regime eine Informationskontrolle erlauben. Das heißt, sie können bestimmen, welche Antworten der Chatbot geben darf und welche nicht.

Die neuen KI-Vorstöße aus Saudi-Arabien klingen zunächst etwas merkwürdig. Tatsächlich gibt es solche Mechanismen auch bei anderen Chatbots wie dem chinesischen Deepseek, das etwa auf der Grundlage von chinesischen Werten trainiert wurde. Auch dieser Chatbot unterliegt einer staatlichen Zensur in Form von einprogrammierten Sicherheitsschranken. Fragt man es etwa nach dem Tiananmen-Platz in Peking, wechselt der chinesische Chatbot kurzerhand das Thema. 

➤ Mehr lesen: So könnt ihr DeepSeek ohne chinesische Zensur nutzen

Solche „Informationskontrollen“ werden jedoch in anderer Form auch in westlichen Chatbots wie ChatGPT oder Google Gemini eingesetzt: Wer dort etwa nach einer Anleitung zum Bau einer Waffe fragt, wird keine konkrete Antwort erhalten. Mal ganz abgesehen davon, dass die Datengrundlage, auf der die dahinterstehenden LLMs trainiert wurden, ebenso westliche Wertvorstellungen reflektieren.

Kronprinz pflegt gute Kontakte zu westlichen Tech-Chefs

Komplett abgekapselt vom Westen und dortigen KI-Machern ist aber auch Humain nicht. Das staatliche Unternehmen, das von Mohammed bin Salman persönlich gegründet wurde, pflegt gute Kontakte in die USA. 

Die Gründung des KI-Startups im Mai wurde etwa bei einem saudischen Investoren-Gipfel in Riad verkündet, bei dem auch US-Präsident Donald Trump und Tech-Chefs wie Elon Musk, Sam Altman oder Jensen Huang anwesend waren. Der Kronprinz trifft sich auch sonst regelmäßig mit amerikanischen Tech-Leadern und tauscht sich mit ihnen über die Zukunftspläne in seinem Land aus, etwa zu seiner Zukunftsstadt Neom.  

➤ Mehr lesen: Megaprojekt The Line: Neues Video zeigt Baufortschritt

Klicken Sie hier für die Newsletteranmeldung

Hat dir der Artikel gefallen? Jetzt teilen!