Warum ChatGPT so schnell kein Job-Killer ist
Dieser Artikel ist älter als ein Jahr!
Es kann Texte schreiben, Fragen beantworten und auch Software programmieren. Seit OpenAI sein System ChatGPT im vergangenen Dezember öffentlich zugänglich gemacht hat, verzeichnet der Chatbot nicht nur regen Zulauf, sondern sorgt auch für heftige Diskussionen.
Von vielen Fehlern ist die Rede. Aber auch davon, dass erste Firmen bereits beginnen, Mitarbeiter*innen durch das System mit künstlicher Intelligenz zu ersetzen. Wird uns ChatGPT tatsächlich die Arbeitsplätze wegnehmen? Die futurezone hat sich bei Experten umgehört.
Überall dort, wo mit Texten gearbeitet werde, könne der ChatBot theoretisch bei Aufgaben unterstützen, sagt Stefan Strauß vom Institut für Technikfolgenabschätzung an der Österreichischen Akademie der Wissenschaften (ÖAW). Das passiert teils auch bereits. Dabei handle es sich allerdings um Mikroaufgaben, etwa um das Verfassen von Textbausteinen oder Hilfe bei der Recherche.
Es gebe Potenzial. Die Arbeit menschlicher Mitarbeiter könne so ein System aber nicht vollständig ersetzen. Strauß sieht in ChatGPT und vergleichbaren Systemen eher eine "neue Art von Werkzeug", das man in Arbeitsabläufe integrieren könne.
“Kein KI-System ist fehlerfrei und es entsteht generell auch viel Wartungs- und Nachkorrekturaufwand“
Die Gefahr, dass wegen der erhöhten Produktivität weniger Mitarbeiter*innen notwendig seien und Kündigungen folgen könnten, sieht Strauß durchaus. Es sei aber möglich, dass Unternehmen rasch bemerken, dass vieles nicht so gut funktioniere, wie sie sich das vorgestellt haben, meint der Experte. “Kein KI-System ist fehlerfrei und es entsteht generell auch viel Wartungs- und Nachkorrekturaufwand.“
Firmen, die Mitarbeiter*innen rausschmeißen, weil die Tätigkeiten automatisiert werden, würden auch in der Belegschaft ein Problem bekommen. "Das ist nicht motivierend und kann sich sehr negativ auswirken."
Hinter dem Hype um den Chatbot stecke auch viel PR. Konzerne wie Microsoft hätten in die Technologie Milliarden investiert und auch großes Interesse, sie bekannter zu machen. Die Qualität der von ChatGPT generierten Texte sei jedoch sehr variabel und hängt stark vom Anwendungskontext und der technischen Kompetenz der Anwender*innen ab. Zudem ist das System sehr intransparent und die Etablierung eines stabilen Qualitätsniveaus bislang ein ungelöstes Problem.
"Programmierer*innen wird es keine ersetzen können"
Wie sieht es in der Softwareentwicklung aus? Dort herrscht Fachkräftemangel. Kann der durch Systeme wie ChatGPT entschärft werden? "Programmierer*innen wird es keine ersetzen können", sagt Clemens Heitzinger vom Center for Artificial Intelligence and Machine Learning (CAIML) an der TU Wien. Wenn man aber prinzipiell programmieren könne, sei es ein wirksames Tool zur Produktivitätssteigerung.
ChatGPT könne etwa zur Erstellung von Rohversionen genutzt werden. Man müsse zwar Korrekturen vornehmen, habe aber ein Gerüst, mit dem man weiterarbeiten kann, sagt der KI-Experte: "Das spart viel Zeit."
Die Fähigkeiten des Systems beurteilt Heitzinger durchaus positiv. Was das Programmieren betreffe, sei ChatGPT sehr gut. Vor allem bei Programmiersprachen, für die viel gut dokumentierter Open Source Quellcode verfügbar ist, wie etwa Python oder C++. "Bei esoterischen Programmiersprachen ist es schlechter."
Kurzfristig geht Heitzinger nicht davon aus, dass ChatGPT zu großen Änderungen am Arbeitsmarkt führen wird. "Langfristig wird es aber spannend", meint er. Bei dem System handle es sich noch um eine frühe Version, die Entwicklung gehe weiter.
"Dann hat man einen Superassistenten, der vieles ersetzen kann. Von Dokumentationen bis hin zu Schulungen."
So könnte man etwa mit eigenen Trainingsdaten spezialisierte Versionen von ChatGPT entwickeln, etwa für bestimmte Programmiersprachen oder technische Teilgebiete. "Dann hat man einen Superassistenten, der vieles ersetzen kann. Von Dokumentationen bis hin zu Schulungen."
"Viele inhaltliche Fehler"
Wie wird sich ChatGPT auf die Medienwelt auswirken? Müssen Journalist*innen um ihre Jobs bangen? "Nein", sagt Josef Trappel, Professor für Kommunikationspolitik und Medienökonomie an der Universität Salzburg. ChatGPT und ähnliche Dienste würden keine fertigen Texte liefern. "Sie sehen vielleicht so aus, sind es aber nicht. Sie machen viele inhaltliche Fehler."
ChatGPT sei bestenfalls ein unterstützendes Werkzeug für die Textproduktion. Es werde aber weiterhin Journalist*innen brauchen, die Texte bearbeiten und überprüfen. Journalismus umfasse neben dem Verfassen von Texten darüber hinaus viele andere Tätigkeiten, die von der Themenauswahl und dem Aufbau von Kontakten bis zur investigativen Recherche reichen. Der Chatbot steigere zwar die Effizienz, die Einsparungsmöglichkeiten seien aber nicht so massiv, meint Trappel.
"Den Menschen wird es weiterhin brauchen, die Arbeit wird sich aber verändern."
In anderen Bereichen der Medienproduktion könnten solche Systeme künstlicher Intelligenz aber ein größere Rolle spielen. Etwa beim Kürzen von Beiträgen, bei der Bearbeitung für die Mehrfachverwertung von Texten in Radio und TV oder beim Bespielen von Social-Media-Kanälen. Solche Kurztexte seien anfällig für die Bearbeitung durch automatisierte Textprogramme.
Er sei jedoch skeptisch, ob sich das auch in der Personalausstattung niederschlagen wird, sagt Trappel: "Den Menschen wird es weiterhin brauchen, die Arbeit wird sich aber verändern."
Gesellschaftlicher Lernprozess
Der gesellschaftliche Lernprozess, wie mit künstlicher Intelligenz umgegangen werden soll, stehe erst am Anfang, sagt Strauß. Noch seien Systeme wie ChatGPT sehr fehlerhaft. Es sei durchaus möglich, dass bald Ernüchterung einkehrt aufgrund überzogener Erwartungen und ungelöster Probleme wie etwa Fehleranfälligkeit, Bereinigung der Daten und Überprüfbarkeit der produzierten Ergebnisse.
ChatGPT könnte dann ein ähnliches Schicksal erleiden wie Karl Klammer von Microsoft. Auch der Microsoft-Office-Assistent in Form einer Büroklammer wurde bei seiner Einführung 1996 von Microsoft stark gepusht. Bereits nach wenigen Jahren war er wieder verschwunden: "Weil ihn niemand sinnvoll verwenden konnte", sagt Strauß.
Kommentare