Wir Menschen können letztlich nicht oder nur unter großem Aufwand unterscheiden, ob ein Text von einem Menschen geschrieben wurde oder von einer Software. Dies birgt nicht nur für den schnellen Journalismus großes Potenzial, sondern auch für Manipulation und Missbrauch. Wann und wie muss der Gesetzgeber diese Unterscheidung einfordern? Und: Muss er die Äußerungen menschlicher Autorinnen und Autoren und die Äußerungen von Robotern gleichbehandeln oder nicht?
Diese Fragestellungen sind nicht nur in sich facettenreich, sie ziehen wiederum auch einen ganzen Schwung an Fragen nach sich: Haben Roboter ein Recht auf Meinungsfreiheit? Sind Texte aus Menschenhand schutzwürdiger als softwaregenerierte Texte? Welche Urheberrechte bestehen an Texten, die aus automatisierten Prozessen stammen?
Im Medien- und Informationsrecht ist der Roboterjournalismus ein noch kaum behandeltes Thema. Mit seiner Dissertation hat Habel deshalb ein Stück weit Pionierarbeit geleistet. Er definiert und diskutiert Schritt für Schritt, in welchem Verhältnis Mensch und Maschine in der automatisierten Kommunikation stehen, wo der Einfluss des Menschen beginnt und wo er an seine Grenzen kommt „Die Diskussion wird hier häufig sehr überhitzt geführt. Es geht nicht darum, ob Bots die ‚kommunikative Weltherrschaft‘ übernehmen werden“, betont der 35-Jährige. „Auch im Roboterjournalismus gilt: Der Mensch programmiert die Maschine und hat somit grundsätzlich Einfluss auf das, was die Maschine generiert.“
Der springende Punkt in Habels Forschung ist der: Kann ein automatisiert erzeugter Text im Ergebnis vom Menschen noch vollständig nachvollzogen werden? „Wer einen Algorithmus schreibt, bestimmt die Sprache des Programms, den Wortschatz, den Satzbau, die Tonalität. Es liegt also absolut in der Reichweite des Menschen, zu entscheiden, welcher Bausteine sich das Programm bedient, welche Datengrundlage es nutzt und welchen Gegenstand somit die Berichterstattung haben wird“, erläutert er. Was der Mensch hingegen nicht kann, ist, vorherzusagen, wie sich das Programm entscheiden und wie genau sich der Text wortwörtlich zusammensetzen wird. „Der Programmierer kann allerdings nach Abschluss der Textgenerierung nachvollziehen, welche Entscheidungen das Programm bei der Texterzeugung getroffen hat.“
„Sofern die Nachvollziehbarkeit nicht gewährleistet ist, werden die Grenzen der Zurechenbarkeit überschritten. Die Prozesse bleiben aufgrund ihrer selbstlernenden Funktionsweise ein Stück weit ‚black boxes‘, in die selbst der Urheber des Programms nicht ganz hineinblicken kann. Es lässt sich also keine komplette Nachvollziehbarkeit für den Menschen garantieren, wenn Bots mit neuronalen Netzen programmiert werden“, hält der Jurist fest.
Man muss menschliche und computervermittelte Kommunikation rechtlich trennen
Diese Aspekte der Nachvollziehbarkeit identifiziert Habel als entscheidend dafür, ob sich die gesetzliche Meinungsfreiheit anwenden lässt oder nicht. „Mein Rechtsgefühl sagte mir von Anfang an: Automatisierte Kommunikation ist grundsätzlich ebenso schutzwürdig wie menschliche Kommunikation, aber sie hat eine andere Qualität und muss rechtlich anders behandelt werden. Mit meiner Arbeit habe ich nun zeigen können, dass sich dieses Gefühl auch verfassungsrechtlich stützen lässt und man menschliche und computervermittelte Kommunikation rechtlich trennen muss.“ Habel diskutiert daher auch Regulierungsmöglichkeiten, mit denen der Gesetzgeber Transparenz herstellen beispielsweise eine Kennzeichnung automatisiert erzeugter Texte verlangen kann.
Dr. Dominic Habel (Jahrgang 1984) hat in Göttingen und Leuven Rechtswissenschaften studiert und am Lehrstuhl für Öffentliches Recht, Medien- und Informationsrecht (Prof. Dr. Kai von Lewinski) seine Dissertation erarbeitet. 2016 wurde er mit dem Preis für gute Lehre der Universität Passau ausgezeichnet. Dominic Habel ist als Rechtsanwalt bei Osborne Clarke in Hamburg mit Beratungsschwerpunkt im Urheber- und Markenrecht tätig.