Verantwortliche Künstliche Intelligenz
Das Thema Verantwortliche Künstliche Intelligenz ist seit 2018 integraler Bestandteil des Forschungsstandorts Freiburg. Aus dem entsprechenden FRIAS Forschungsschwerpunkt des akademischen Jahres 2018/19 ging die FRIAS Saltus! Gruppe „Verantwortliche Künstliche Intelligenz“, die sich mit normativen und philosophischen Grundlagen sowie ethischen, rechtlichen und sozialen Herausforderungen der Interaktion von Menschen mit intelligenten Systemen befasst.
Mit dem Saltus!-Programm fördert die Universität Freiburg insbesondere Forschungsprojekte aus den interdisziplinären Profil- und Potenzialfeldern der Universität, die sich durch hervorragende wissenschaftliche Leistungsfähigkeit und großes Innovationspotenzial auszeichnen.
Aktuelle Forschungs- und Transferaktivitäten, die aus dem FRIAS Forschungsschwerpunkt und der Saltus! Gruppe hervorgehen, finden Sie auf der Website Responsible AI.
Rückblick auf die Anfänge des Forschungsschwerpunkts
Organisator/innen
- Prof. Dr. rer. nat. Wolfram Burgard
Department of Computer Science, University of Freiburg
Autonomous Intelligent Systems Lab
E-mail: burgard@informatik.uni-freiburg.de - Dr. med. Philipp Kellmeyer
Department of Neurosurgery
University of Freiburg – Medical Center
Translational Neurotechnology Lab (AG Ball)
E-mail: philipp.kellmeyer@uniklinik-freiburg.de
- Prof. Dr. Oliver Müller
Department of Philosophy, University of Freiburg
Cluster of Excellence BrainLinks-BrainTools
Bernstein Center Freiburg
E-mail: oliver.mueller@philosophie.uni-freiburg.de - Prof. Dr. Silja Vöneky
Institute of Public Law, Department 2 – Public International Law and Ethics of Law
University of Freiburg
E-mail: svoeneky@jura.uni-freiburg.de
Abstract
Intelligent systems capable of autonomous behavior and self-learning, whether in medical devices or self-driving vehicles, are the core technology behind the next wave of industrial innovation. In this research focus, we will jointly investigate ethical, legal, philosophical and social aspects, including benefits and risks in a broad sense, of this impending transformation from different perspectives. In the legal and governance domain, for example, we will examine national and international legislations, regulations, and treaties, as well as soft law norms and codes of conduct, on whether they are adequate for governing the interactions between humans and intelligent systems and for adjudicating liability. We will also study algorithmic and hardware mechanisms for safeguarding users of intelligent software and robots. With respect to philosophical questions, we will study the impact of these technologies on ethical theories and concepts of agency and action. The project provides a foundational nucleus for the interdisciplinary study of ethical, legal, social and other aspects of autonomous intelligent systems at the University of Freiburg.
News (bis 2018)
Regeln für Ungeregeltes? Aktuelle Herausforderungen durch Forschung und Technik
für das Völkerrecht im 21. Jahrhundert
Prof. Dr. Silja Vöneky, FIP 2/2018, 24 S.
Artikel online abrufbar hier
Hirndaten: Wie schützen wir unsere Gedanken vor Facebook & Co?
Dr. med. Philipp Kellmeyer im Gespräch mit Ute Welty, Deutschlandfunk Kultur, Sendung vom 5.12.2017
Mitschnitt des Radiointerviews
„Wir brauchen eine Debatte über den Umgang mit Hirndaten“
Dr. med. Philipp Kellymeyer im Interview mit Anna Schughart von der Zeitschrift WIRED, Artikel vom 22.11.2017
Artikel online abrufbar hier
Four ethical priorities for neurotechnologies and AI
Philipp Kellmeyer veröffentlicht Artikel in Nature News, 8.11.2017
Artikel online abrufbar hier
Yuste, R., Goering, S., Bi, G., Carmena, J. M., Carter, A., Fins, J. J., ... & Kellmeyer, P. (2017). Four ethical priorities for neurotechnologies and AI. Nature News, 551(7679), 159.