Veröffentlichungen
DeepWrite – Der KI-Korrektor?
In diesem Beitrag von recode.law e.V. befassen sich Olesja Kaltenecker und Jeremias Forssman mit dem DeepWrite Projekt. Basierend auf einem Interview mit Christian Braun, Simon Alexander Nonn und Sarah Großkopf vom Forschungsprojekt DeepWrite der Universität Passau werden das Projekt selbst, seine Stärken und Möglichkeiten sowie die noch bestehenden Herausforderungen beleuchtet. Insbesondere bei kürzeren Lösungen kann die KI mit sorgfältiger Vorbereitung ordentliches Feedback liefern. Sowohl die inhaltliche Richtigkeit, als auch der (Gutachten-)Stil sowie grammatikalische und lexikalische Richtigkeit werden bewertet. Eine Herausforderung stellt jedoch die Bewertung langer Lösungen dar. Die Stringenz einer Argumentation über eine ganze Klausur hinweg kann bisher nur schwer bewertet werden.
Konzeptualisierung der Lernplattform DeepWrite für Künstliche Intelligenz im Bereich Recht in Deutschland - Fokussierung auf die Benutzeroberfläche auf Basis der Umfrageergebnisse
Der Artikel von Yujin Kang im Korean Design Forum (한국디자인포럼) basiert auf einer “Umfrage zur Ermittlung der UX-Bedürfnisse von Jurastudierenden“, die im Wintersemester 2023/24 im Fachbereich Rechtswissenschaft an der Universität Passau durchgeführt wurde. In dieser Studie wurden die Antworten der Umfrageteilnehmenden sowohl mit Blick auf die User Experience als auch im Hinblick auf die Integration von Künstlicher Intelligenz in eine solche Lernplattform ausgewertet. Bei der User Experience liegt der Fokus auf dem User Interface und dem Designsystem, welche die Anforderungen und die Präferenzen der zukünftigen Nutzenden berücksichtigen. Das positive Erscheinungsbild der Lernplattform erlaubt den Nutzenden, die Plattform über einen längeren Zeitraum zu nutzen und die Aufmerksamkeit der Nutzenden aufrecht zu erhalten. Darüber hinaus befasst sich der Artikel mit der theoretischen Betrachtung des KI- und Designprozesses und verdeutlicht die Bedeutung der Mensch-Computer-Interaktion (eng. Human-Computer-Interaction, HCI) aus Sicht des User Experience Designs, indem die Benutzeroberflächen des Großen Sprachmodells ChatGPT in den Versionen GPT-2 und GPT-3.5 verglichen wurden.
Kann ChatGPT Lehrende an der Universität ersetzen?
In diesem Aufsatz in der JuS (Juristische Schulung) widmen sich die Wiss. Mitarbeiter Christian Braun, Sarah Großkopf und Simon A. Nonn der Frage, ob ChatGPT Lehrende an der Universität ersetzen kann – vor allem mit Blick auf die Vermittlung der juristischen Argumentationsfähigkeiten und speziell des Gutachtenstils anhand von KI-Feedback.
Die Corona-Pandemie und die damit einhergehenden immer rasanter werdenden Entwicklungen und Fortschritte im Bereich Digitalisierung haben in den letzten Jahren gezeigt, dass sich Didaktik im Hochschulbereich aktuell im Wandel befindet und dass dieser Prozess aktiv beeinflusst werden kann und sollte, um die Zukunfts- und Wettbewerbsfähigkeit der Universitäten zu erhalten. Ein großer Bestandteil dessen ist die Nutzung innovativer Technik und Tools, wie zB Künstliche Intelligenz (KI), insbesondere large language models (LLM) und natural language processing (NLP), um digitale Lehr- und Lernräume für Studierende zukünftiger Generationen zu schaffen.
Ist GPT-4 ein zuverlässiger Bewerter? Bewertung der Konsistenz der Textbewertungen von GPT-4
Diese Studie berichtet über die Intraclass-Korrelationskoeffizienten von Feedback-Bewertungen, die von OpenAIs GPT-4, einem großen Sprachmodell, über verschiedene Iterationen, Zeitrahmen und stilistische Variationen hinweg erzeugt wurden. Das Modell wurde verwendet, um Antworten auf Aufgaben im Zusammenhang mit der Makroökonomie in der Hochschulbildung auf der Grundlage ihres Inhalts und Stils zu bewerten. Es wurde eine statistische Analyse durchgeführt, um die absolute Übereinstimmung und Konsistenz der Bewertungen in allen Iterationen sowie die Korrelation zwischen den Bewertungen in Bezug auf Inhalt und Stil zu ermitteln. Die Ergebnisse zeigten eine hohe Interrater-Reliabilität mit ICC-Werten zwischen 0,94 und 0,99 für verschiedene Zeiträume, was darauf hindeutet, dass GPT-4 in der Lage ist, konsistente Bewertungen zu erstellen. Der in dieser Studie verwendete Prompt wird ebenfalls vorgestellt und erläutert.
Leistungsanalyse großer Sprachmodelle für Legal Argument Mining
In dieser Studie untersuchen wir (Abdullah Al Zubaer, Michael Granitzer und Jelena Mitrović) die Effektivität von GPT-3.5 und GPT-4 für das Argument-Mining im juristischen Bereich und konzentrieren uns dabei auf die Formulierung von Befehlen ("Prompts") und die Auswahl von Beispielen unter Verwendung von modernen Einbettungsmodellen von OpenAI und Satztransformatoren. Unsere Experimente zeigen, dass relativ kleine domänenspezifische Modelle GPT 3.5 und GPT-4 bei der Klassifizierung von Prämissen und Schlussfolgerungen übertreffen, was auf eine Lücke in der Leistung dieser Modelle bei komplexen Rechtstexten hinweist. Wir beobachten auch eine vergleichbare Leistung zwischen den beiden Einbettungsmodellen, mit einer leichten Verbesserung der Fähigkeit des lokalen Modells bei der Prompt-Auswahl. Unsere Ergebnisse deuten darauf hin, dass die Struktur von Prompts die Leistung von GPT-Modellen erheblich beeinflusst und bei der Entwicklung von Modellen berücksichtigt werden sollte.
So wird KI in der Hochschulbildung eingesetzt
In dieser Interviewreihe stellt die Bundeszentrale für politische Bildung drei vom Bundesministerium für Bildung, Wissenschaft und Forschung geförderte Projekte vor. Im Rahmen dieser Reihe durfte Veronika Hackl den Lesern das Projekt DeepWrite näherbringen.
Tagungsbericht zur Zweiten Passauer Junikonferenz
Vom 24.-26. Juni 2022 veranstaltete ELSA-Passau die zweite Junikonferenz unter dem Motto "Smart Law". Bei dieser Tagung sollte nichts Geringeres als die Zukunft der Rechtswissenschaften sowie die Digitalisierung der juristischen Berufe behandelt werden. Im anliegenden Tagungsbericht wird unter anderem das Projekt DeepWrite behandelt.