Document Actions

You are here: FRIAS Events Conferences & Workshops Seminar - Künstliche Intelligenz …

Seminar - Künstliche Intelligenz

Aktuelle und grundlegende Fragen der Rechtsphilosophie und des nationalen, europäischen und internationalen öffentlichen Rechts
When May 24, 2019 09:00 AM to
May 25, 2019 04:00 PM
Where FRIAS, Albertstr. 19, Seminar room
Contact Name
Contact Phone 0761 203 97362
Attendees Universitätsoffen / Open to university members
Add event to calendar vCal
iCal

Aktuelle und grundlegende Fragen der Rechtsphilosophie und des nationalen, europäischen und internationalen öffentlichen Rechts

 

Die Entwicklung und der Einsatz künstlicher Intelligenz (KI) führen bereits heute zu vielfältigen Fragen, die auch in den rechtsphilosophischen und rechtsdogmatischen Debatten der Gegenwart intensiv erörtert werden. Das Seminar zielt darauf, diese Debatten und ihre Grundlagen und Konzepte nachzuzeichnen, kritisch zu erörtern und eigene Thesen und Lösungsansätze zu bestehenden Problemen der künstlichen Intelligenz zu entwickeln. Dies umfasst neben der Beantwortung von Grundlagen- und Governancefragen auch rechtsdogmatische Probleme im Bereich des (internationalen) öffentlichen Rechts, die besondere Teilbereiche der Entwicklung künstlicher Intelligenz betreffen. Das Seminar soll damit den Studierenden die Möglichkeit geben, sich rechtsphilosophisch, rechtsethisch und rechtswissenschaftlich mit dem aktuellen Thema der künstlichen Intelligenz intensiv auseinanderzusetzen.


Grundlagen


1. Die Tragfähigkeit des Intelligenzbegriffs im Bereich der künstlichen Intelligenz: Wie intelligent sind KI Systeme? Ziel der Seminararbeit soll sein, die Begriffe und die Konzepte der Intelligenz und der künstlichen Intelligenz zu entfalten und kritisch zu würdigen. Hierbei sind diese auch gegen verwandte Konzepte, bspw. der Rationalität oder Vernunft, und das Konzept der menschlichen Intelligenz abzugrenzen und in Beziehung zu setzen. Der Studierende soll in seiner Arbeit bewerten, wie tragfähig der Begriff der künstlichen Intelligenz ist, um die technischen Möglichkeiten zu erfassen, die damit heute beschrieben werden.


2. Die Tragfähigkeit des Autonomiebegriffs im Bereich der künstlichen Intelligenz: Wie autonom können KI Systeme sein? Ziel der Seminararbeit soll sein, den Begriff und das Konzept der Autonomie in Bezug auf Systeme künstlicher Intelligenz zu entfalten und kritisch zu würdigen. Hierbei ist auch zu untersuchen, ob und wie sinnvoll von teilautonomen KI Systemen gesprochen werden kann und welche Folgerungen sich ergeben, wenn diese im Sinne einer „shared agency“ mit Menschen interagieren.


3. Verantwortungs- und Zurechnungsfragen bei dem Einsatz künstlicher Intelligenz aus rechtsethischer Sicht. Wenn künstliche Intelligenz sich dadurch auszeichnet, dass diese Systeme auch (ganz oder teilweise) autonom entscheiden können und selbstlernend sind, stellt sich die Frage, ob bzw. wie weit die bestehenden Konzepte von Verantwortung (responsibility) und Zurechnung (accountability) tragfähig sind oder angepasst werden müssen. Dies soll im Rahmen dieser Seminararbeit untersucht werden.


4. Konzepte der normativen Fundierung von künstlicher Intelligenz aus philosophischer und rechtsethischer Perspektive. Ziel der Seminararbeit soll sein, verschiedene Konzepte der normativen Einhegung von künstlicher Intelligenz, wie das der „Beneficial AI“ oder „Trustworthy AI“, darzustellen, zu vergleichen und aus rechtsethischer Perspektive kritisch zu würdigen. Hierbei soll auch der Einfluss von grundlegenden und aktuellen ethischen Paradigmen und Traditionen aufgezeigt werden.

5. Menschenrechtsfragen künstlicher Intelligenz aus ethischer Perspektive. Welche Lösungen können deontologische und menschenrechtsbasierte Theorien für die normative Fundierung künstlicher Intelligenz aufzeigen? Ziel der Seminararbeit ist es zu untersuchen, welche menschenrechtsbasierten Thesen zu Fragen künstlicher Intelligenz vertreten werden und deren Stärken und Schwächen zu analysieren.


Völkerrecht und künstliche Intelligenz


6. Welche Vorgaben macht die völkerrechtliche Ordnung bereits heute den Staaten und Unternehmen im Bereich der künstlichen Intelligenz (ohne Haftungsrecht)? Die bestehenden Normen und Prinzipien des Völkerrechts sollen auf ihre Relevanz und ihre Lücken zur sinnvollen Regulierung von KI Systemen untersucht werden. Zudem soll die Frage beantwortet werden, ob bzw. wie sich die Völkerrechtsordnung - de lege ferenda - entwickeln müsste, um den Herausforderungen gewachsen zu sein, die sich durch die Entwicklung von KI Systemen der Menschheit und den Staaten stellen.


7. Wie können KI Systeme in völkerrechtliche Verträge integriert werden, um deren Durchsetzung und Einhaltung zu verbessern? Bei Normen des internationalen Rechts stellt sich besonders die Frage, wie deren Durchsetzung und Implementierung verbessert werden kann. Die Seminararbeit soll anhand ausgewählter Verträge untersuchen, ob und wie KI Systeme die Implementierung und Durchsetzung des Völkerrechts verbessern können und wie dies völkerrechtlich verankert werden kann.


8. Wann haften Staaten oder Unternehmen völkerrechtlich für Schäden durch KI Systeme? Die bestehenden Normen und Prinzipien des internationalen Haftungsrechts sollen auf ihre Relevanz und ihre Lücken mit Blick auf den Einsatz von KI Systemen untersucht werden. Zudem solle die Frage beantwortet werden, ob bzw. wie sich die Völkerrechtsordnung - de lege ferenda - entwickeln müsste, um den Herausforderungen gewachsen zu sein, die sich durch die Entwicklung von KI Systemen der Menschheit und den Staaten stellen.


Private Normsetzung und künstliche Intelligenz


9. a. Unternehmenskodizes als legitime Grundlagen der KI Governance? Wichtige Unternehmen und private Akteure erlassen Kodizes, die die normativen Grundlagen legen sollen für die Entwicklung und den Umgang mit KI. Ziel der Arbeit ist, die Frage zu beantworten, wie diese Kodizes rechtsethisch und rechtsdogmatisch zu betrachten sind und sie mit Blick auf Fragen legitimer Governance zu würdigen. Zudem kann d.Verf. den Versuch unternehmen, Eckpunkte für einen legitimen Unternehmenskodex im Bereich der KI auszuformulieren und zu begründen.


9. b. (Unternehmens- und sonstige) Kodizes und die Eingrenzung von Dual-Use-Research-of-Concern und Waffenherstellung. Die Kodizes von Unternehmen und Expertengruppen zur KI schränken – jedenfalls zum Teil – ausdrücklich die Forschung und Entwicklung von Waffensystemen ein oder von solchen KI Bereichen, die für Waffentechnologie missbraucht werden können (vgl. bspw. den Google AI Kodex, Asilomar Kodex). Zu untersuchen ist, ob dieses Kodizes ausreichen, um das Dual Use Problem in Forschung und Entwicklung der KI einzuhegen und ob diese mit relevanten völker- und europarechtlichen Vorgaben übereinstimmen.


10. Expertenkodizes als legitime Grundlagen der KI Governance? Immer mehr Expertenkommissionen, die durch staatliche oder supranationale bzw. internationale Organe und Organisationen eingesetzt werden, entwickeln Kodizes, die die normativen Grundlagen für die Entwicklung und den Umgang mit KI legen sollen. Ziel der Arbeit ist, diese Kodizes rechtsethisch und rechtsdogmatisch und mit Blick auf Fragen legitimer Governance kritisch zu würdigen. Zudem kann d.Verf. den Versuch unternehmen, Eckpunkte für einen legitimen Kodex im Bereich der KI auszuformulieren und zu begründen.


Autonome KI Systeme


11. Autonome Fahrzeuge: Regulierungsfragen im öffentlichen Mehrebenen-system. Halb- und vollautonome Fahrzeuge sollen in naher Zukunft im Straßenverkehr eingesetzt werden. Ziel der Arbeit soll sein, die bestehenden Normen (national, unionsrechtlich und international) kritisch zu erörtern und ggf. Vorschläge für ihre Weiterentwicklung zu machen.

12. Autonome Fahrzeuge: Rechtsethische Fragen in Dilemmatasituationen. Halb- und vollautonome Fahrzeuge sollen in naher Zukunft im Straßenverkehr eingesetzt werden. Völlig ungeklärt ist jedoch, wie diese sich in Dilemmatasituationen verhalten sollen, also wenn die Verursachung eines Schadens unvermeidlich ist, aber das KI System die Entscheidung zwischen verschiedenen Möglichkeiten treffen kann. Ziel der Arbeit soll sein, die rechtsethische und philosophische Debatte zur Lösung von Dilemmatasituationen bei dem Einsatz von KI Systemen darzulegen und kritisch zu würdigen.


13. Autonome Fahrzeuge: Verfassungsrechtliche Fragen in Dilemmata-situationen. Halb- und vollautonome Fahrzeuge sollen in naher Zukunft im Straßenverkehr eingesetzt werden. Völlig ungeklärt ist jedoch, wie diese sich in Dilemmatasituation verhalten sollen, also wenn die Verursachung eines Schadens unvermeidlich ist, aber das KI System die Entscheidung zwischen verschiedenen Möglichkeiten treffen kann. Ziel der Arbeit soll sein, die verfassungsrechtlichen Argumente zur Lösung von Dilemmatasituationen auf der Grundlage des Grundgesetzes bei dem Einsatz von KI Systemen darzulegen und kritisch zu würdigen.


14. Autonome Waffen: Notwendigkeiten und Möglichkeiten der Einhegung durch das Völkerrecht. Ob und wie autonome oder halbautonome Waffen heute und in Zukunft entwickelt und eingesetzt werden dürfen, ist hochumstritten. Viele Staaten sprechen sich bereits für ein Verbot von voll-autonomen Waffen aus. Ziel der Seminararbeit ist, relevante Argumente der einzelnen Staaten und ausgewählter privater Akteure zu untersuchen und diese kritisch – mit Blick auf die bestehenden Normen des Völkerrechts – zu würdigen. Vertritt d.Verf. die These, dass Entwicklung und Einsatz dieser Waffen durch einen neuen Vertrag oder Kodex begrenzt werden sollten, kann d.Verf. den Versuch unternehmen, Eckpunkte für einen neuen Vertrag/Kodex im Bereich der KI auszuformulieren und zu begründen.


15. Autonome Waffen: (Rechts)philosophische Erörterungen. Auch in der philosophischen Debatte wird die Frage der Zulässigkeit autonomer Waffen erörtert. Ziel der Seminararbeit ist, diese Argumente aufzuzeigen, auf ihre Tragfähigkeit zu untersuchen und kritisch zu würdigen.

16. Gehirndaten und ihr Schutz: Völkerrechtliche, europarechtliche und verfassungsrechtliche Untersuchungen. Technisch gibt es immer mehr Möglichkeiten bspw. durch Gehirnkappen oder invasive GehirnComputer-Schnittstellen die Gedanken eines Menschen zu lesen, zu sammeln und zu verwenden. Dies kann heute und in Zukunft genutzt werden für medizinische Anwendungen (bspw. bei der Prothesennutzung), aber auch von Spieleherstellern als private Unternehmen, um besser die Emotionen der Spielenden zu erkennen oder auch den Staat bspw. zur Aufklärung von Verbrechen. Fraglich ist daher, ob der Schutz der Sammlung und Nutzung von Gehirndaten heute bereits ausreichend geregelt ist in Bezug auf die Forschung und Anwendung. Zu untersuchen sind dabei die Normen der europäischen Datenschutzgrundverordnung, aber auch völkerrechtliche Normen, wie die relevanten Menschenrechte und sonstige internationalerechtlichen Dokumente, und ggf. (verfassungsrechtlich) Grundrechte des GG.


gez. Prof. Dr. Silja Vöneky