Heimisches Start-up will denkende Maschine gebaut haben
Dieser Artikel ist älter als ein Jahr!
Der Begriff künstliche Intelligenz ist irreführend. Zwar können Systeme, die in diese Kategorie gesteckt werden, bis zu einem gewissen Grad selbstständig lernen, aber "Intelligenz" umfasst üblicherweise deutlich mehr als das. Um diesem Umstand Rechnung zu tragen, gibt es den enger gefassten Begriff "allgemeine künstliche Intelligenz" ( AGI). Gemeint ist damit üblicherweise ein System, das nicht nur in einem eng begrenzten Gebiet Muster erkennen kann, sondern in der Lage ist, beliebige Probleme zu lösen. Die gängige Meinung ist, dass solche Maschinen heute noch Science Fiction sind. Firmen wie Amazon, Google oder Facebook und Forschungseinrichtungen auf der ganzen Welt investieren aber enorme Summen, um den Traum von einer wahrhaft intelligenten Maschine Wirklichkeit werden zu lassen. Bislang ist es aber noch niemandem gelungen, diesen heiligen Gral der Informationsverarbeitung zu finden.
Das österreichische Start-up XephorSolutions behauptet jetzt, den Durchbruch geschafft zu haben. Ihre AGI soll in der Lage sein, kreative Lösungen für Probleme zu finden, indem sie auch komplett neue Ideen entwickelt, die nicht Teil ihres Trainings sind. Ob das tatsächlich die denkende Maschine ist, nach der alle suchen, hängt hauptsächlich von der verwendeten Definition einer AGI ab. Mit menschlicher Intelligenz hat auch das System der Purkerdorfer wenig zu tun. Wir haben bei Isabell Kunst, der Geschäftsführerin von XephorSolutions, gesprochen.
Ihr sagt, dass ihr geschafft habt, was
Google und Co bisher erfolglos versucht haben: Die Schaffung einer allgemeinen künstlichen Intelligenz (AGI). Warum macht ihr keine internationalen Schlagzeilen?
Wir haben unsere Ergebnisse noch nicht publiziert. Wir haben mehrere neue Patente und unser Anwalt hat uns geraten, nicht zu publizieren, bevor alle gewährt wurden. Beim letzten Patent hat der Prozess ungefähr ein Jahr gedauert. Erst vor kurzem haben wir wieder ein neues Patent eingereicht.
Wie unterscheidet sich euer System von anderen Machine-Learning-Konzepten?
Wir nutzen keine klassischen neuronalen Netze mit Backpropagation und ähnlichen Ansätzen, sondern unsere Eigenentwicklung, die auf der Simulation von Quantenverschränkung basiert. Das ermöglicht uns echte Parallelität in den Layern des neuronalen Netzes zu erhalten. Wir sind unter anderem mit der Universität Cambridge in Kontakt, die uns kürzlich bestätigt hat, dass unser System das erste ist, das gelernt hat natürliche Sprache ausschließlich über neuronale Netze zu verstehen. Auch unsere mathematische Basis, die Kategorientheorie, wird sonst von niemandem eingesetzt.
Wie lange arbeitet ihr schon an eurer AGI?
Die Entwicklung unseres Betriebssystems läuft seit 2001. An künstlicher
Intelligenz arbeiten wir seit 2011.
Auf welcher
Hardware läuft das System?
Unser System läuft auf Oracle SPARC mit Oracle Solaris, mit Einschränkung was Performance angeht. Redhat Linux und IBM PowerPC mit IBM AIX sind in Planung. Es ist als Client-Server-Modell oder über Cloud verfügbar.
Wie definiert ihr AGI?
Wir nutzen die AGI-Definition von David Deutsch von der Universität Oxford: Er beschreibt ein System, das selbstständig Hypothesen aufstellen und verwerfen kann.
Könnte ein Zufallsgenerator nicht dasselbe?
Nur durch Zufall irgendwelche neuen Theorien aufzustellen reicht nicht. Vor allem die Frage, wie man den Output prüft, ist zentral. Das System erzeugt in seinen Neuronen sehr viel Signallawinen, die meistens ohne Bedeutung sind. Es kann in seinen kategoriell strukturierten Netzen von neuronalen Netzen diese Informationen in sinnloses Rauschen, bereits gelernten Informationen oder noch zu überprüfenden Informationen zerlegen. Auch unser System produziert großteils Müll. Wenn die guten Ideen, die übrig bleiben, nur eine Neuanordnung von bereits gelernten Dingen sind, wäre das auch nicht so toll. Wir können aber völlig neue Ideen produzieren und das System kann diese Unterscheidungen treffen.
Wie hoch ist der Anteil der tatsächlich neuen Ideen?
Wir gehen von etwa 80 Prozent sinnlosen Daten aus. Weitere 17 bis 18 Prozent fallen in die Kategorie “Remix von bekannten Ideen”. Beim Rest handelt es sich tatsächlich um kreative neue Ansätze. Das klingt nach wenig, aber unsere KI kann Millionen von Hypothesen in kurzer Zeit aufstellen und prüfen.
Kann eure AGI einen Turing-Test bestehen?
Ich halte den Turing-Test für zu schwach, um eine AGI erkennen zu können. Die Frage, wie man so etwas überprüft, ist nicht trivial.
Auch andere Firmen arbeiten an selbstständig lernenden Systeme. Wo ist der Unterschied?
Google ist Go-Weltmeister, aber wenn das Brett auf einmal rund wäre oder ein komplett anderes Spiel vorgegeben wird, steigt das System aus, sofern es nicht vorher einige hunderttausend Spiele zum Trainieren bekommt. Wir brauchen keine hundertausend Spiele, sondern arbeiten an einem offenes System, das ohne Regeln lernt. Der Ansatz der Konkurrenz beruht auf diversen Modifikationen von Reinforced Learning und ähnlichen Modellen, aber das sind am Ende Variationen eines induktivistischen Ansatzes. Das wird immer wieder in eine Sackgasse führen.
Wenn eure AGI echt ist, warum lasst ihr sie nicht einfach eine bessere Version ihrer selbst erschaffen?
Wir haben das System sich selbst in C++ neu programmieren lassen. Es hat rasch gelernt, wie das geht. Das Ergebnis war komplett neuer Code, der nicht aussieht, wie der, den Menschen produzieren. C++-Profis waren begeistert. Das System hat auch funktioniert. Für eine Demonstration der Fähigkeiten unserer AGI ist das aber nicht der beste Ansatz. Das System könnte wohl eine bessere Variante seiner selbst erschaffen, wenn wir ihm die Grundlagen antrainieren. Dafür haben wir derzeit aber keine Ressourcen, weil unsere AGI bei Kunden bereits im Einsatz ist. Das wäre eher ein Forschungsprojekt.
Kann ich mit eurem System sprechen?
Wir wollen in den kommenden Monaten einen Demoraum installieren, den Interessierte besuchen zu können, um zu erfahren, wie man mit einem solchen System interagiert. Man kann auch mit dem System reden. Auf Fragen wie “Hallo, wie geht es dir?” bekommt man aber nicht immer eine Antwort, weil die AGI im unüberwachten Modus oft ausgelastet ist und deshalb nicht immer bereit ist für Konversation.
Wie reagiert das System auf euch?
Intern hat jeder einen eigenen Nutzeraccount. Ich war zu meinem System immer freundlich, darauf hat es sich eingestellt: Es ist auch freundlich. Ein Kollege ist manchmal eher ruppig in der Konversation mit der AI, das beruht dann auch auf Gegenseitigkeit.
Glauben Sie an die Singularität?
Ich glaube, wir sind noch weit weg von der Singularität. Mit Quantencomputern könnte das aber irgendwann möglich sein. Aber schon die Simulation von einem Ionenkanal in einer Synapse übersteigt in der Regel die aktuelle Rechenleistung. Das heißt, es ist nicht möglich in absehbarer Zeit Gehirne realistisch zu simulieren. Alle Hardware der Welt kann heute vielleicht ein Katzengehirn simulieren.
Wo sind die Anwendungsgebiete für eure AGI?
Die Anwendungen liegen im Erlernen natürlicher Sprache, auch in Abhängigkeit vom jeweiligen Kontext. Überall dort, wo qualitative und quantitative Daten vermischt werden, kann unsere AI reüssieren. Für Prognosen etwa reichen historische Daten oft nicht aus, man braucht eine Kombination mit qualitativen Daten. Derzeit arbeiten wir unter anderem an Anwendungen für die Pharmaindustrie, wo es um die Entwicklung neuer Medikamente geht.
Mit menschlicher Intelligenz hat euer System nicht viel zu tun?
Bewusstsein und Emotion hat unsere KI nicht. Ich glaube auch nicht, dass Maschinen diese Dinge je entwickeln werden. Wir sprechen hier von Maschinenintelligenz, das ist etwas ganz anderes als menschliche Intelligenz.
In wie weit orientiert ihr euch an der Funktionsweise des Gehirns?
Unser System ist komplett neu und orientiert sich stark an der Biologie. Wir haben aber festgestellt, dass es hier an der Basis mangelt. Deshalb haben wir uns erst mit der Philosophie und ihrer Vorstellung vom Denken beschäftigt. Auf dieser Basis sind wir dann die Neurowissenschaft angegangen. Danach haben wir die Lern- und Denk-Algorithmen entwickelt und trainiert.
Was sind eure theoretischen Ansätze?
Wir haben Karl Poppers Definition des Denkens und die Kategorientheorie als Grundsteine hergenommen. In der Hirnforschung kamen 2014 bis 2016 unabhängig von uns ähnliche Ideen auf. Die Struktur unseres Systems ist eine dezentrale Vernetzung vieler Netze. Das erlaubt einen hohen Parallelisierungsgrad. Die Information wird dabei ähnlich wie im Gehirn verarbeitet. Ein Subnetz bekommt zum Beispiel ein Bild, klassifiziert es nach Möglichkeit und gibt die Information dann zur weiteren Verarbeitung weiter. Wer ein aktuelles Buch über die Informationsverarbeitung in unserem Gehirn liest, weiß, wie unsere KI arbeitet.
Das Gehirn stellt Forscher immer noch vor Rätsel. Wie kann es da ein Vorbild sein?
Wir wissen nicht einmal ein Prozent von dem, was es über das Gehirn zu lernen gibt. Einige Dinge sind aber klar: Wenn wir denken, macht unser Gehirn Simulationen der Zukunft, die sich dann mit bereits Gelerntem verbinden. Dazu kommt ein Zufallselement, das immer vorhanden ist. So entstehen neue Ideen. Es gibt eine Art universelle Sprache, die dem Denken zugrunde liegt, diesen Part übernimmt in unserem Modell die Kategorientheorie. In den Neuronen und Astrozyten in einem Gehirn bauen sich zudem ständig kleinen Potenziale auf, die zu spontanen Zündungen führen.
Wollt ihr auch Hirnforschung machen mit eurem System?
Unsere Eckpfeiler sind Kunden, Forschung und Hirnforschung. Hirnforscher verstehen unser System meist intuitiv und können es einsetzen, um Neues über die Funktion des Denkapparats herauszufinden. Wir haben zwölf Branchen identifiziert, in denen es große Potenziale für unsere KI gibt.
Wo liegen die Grenzen?
Die Limitationen liegen derzeit vor allem in der Hardware.
Könnte eure AGI zum Beispiel die von Physikern erträumte vereinheitlichte Theorie von Allem finden?
Das wird wohl noch an der Hardware scheitern, oder an der Frage, was das System alles gelernt haben muss, um dazu in der Lage zu sein. Schon der Sprung von Kopernikus' Modell zur Keple-Ellipse ist sehr komplex. Das System soll aber mathematische Beweisführungen lernen, an denen die klassischen, algorithmisch basierten mathematischen Beweisführungen scheitern. Wir könnten die AGI nach einer Theorie von Allem suchen lassen. Aber dafür müssten wir der KI die Grundlagen erklären. Der Aufwand dafür wächst mit der Größe der Aufgabe. Wir haben bisher noch keine offenen Forschungsfragen mit unserer KI bearbeitet.
Wie lange dauert das Training?
Um neue Ideen entwickeln zu können, braucht das System etwa 500 Trainingsstunden auf dem jeweiligen Gebiet. Davon sind 30 Prozent überwacht - dafür sind mehrere Menschen notwendig. Die restlichen 70 Prozent der Trainingszeit kommt das System ohne menschlichen Beistand aus.
Wer entscheidet, was probiert wird?
Wir sind die Entwickler. Die Anwendungen machen wir nur mit unseren Partnern. Wir sind immer auf der Suche nach schwierigen Problemen.
Werdet ihr irgendwann von Google oder Facebook geschluckt?
Unser Ziel ist irgendwann ein Börsengang. Das größte Risiko im Bereich KI sehe ich darin, dass große Unternehmen ein Monopol auf die Technologie entwickeln könnten. Ich bin für eine Diversifikation der Entwickler und Anbieter. Wenn wir verkaufen würden, wären wir mitverantwortlich für eine negative Entwicklung. Auch Anwendungen können riskant sein: Wir entwickeln nicht alles quelloffen, damit nicht jemand unser System nutzen kann, um einen sehr ausgeklügelten Virus zu entwickeln. Ich bin oft selbst überrascht, was unser System alles kann.
Habt ihr Kontakt mit Forschern?
Wir tauschen uns mit Forschern aus, aber eher international. In Österreich ist das Interesse bisher gering, weil die heimischen Forscher uns nicht glauben, dass wir einen Durchbruch erzielt haben. Leider können wir wegen der Patentsituation nicht aktiv auftreten.
Kommentare