Künstliche Intelligenz (KI) ist derzeit in aller Munde und verspricht viele neue Innovationen, die unser Leben einfacher machen werden. Sie verändert auch die Art und Weise, wie wir Wissenschaft betreiben und wirft mehrere grundlegende und methodische Fragen auf, wie etwa die Rolle von Verzerrungen, Erklärbarkeit und die Grenzen empirischer Methoden. Die Beantwortung dieser Fragen erfordert eine interdisziplinäre Anstrengung, zu der verschiedene Wissenschaften, von der Informatik über die Sozialwissenschaften bis zur Philosophie, beitragen können. Dieser Workshop bringt relevante Forscher*innen aus Cambridge und der LMU München zusammen, um die entsprechenden Diskussionen zu führen. Er ist Teil des Projekts "Decision Theory and the Future of AI", das von der Cambridge-LMU Strategic Partnership Initiative finanziert wird. Der Workshop ist auch Teil des Forschungsschwerpunkts Next Generation AI am Center for Advanced Studies (CAS) der LMU.
Zu diesem Workshop sind Huw Price, Apolline Taillandier und Uwe Peters eingeladen. Huw Price ist Teil des Organisationsteams und Apolline Taillandier und Uwe Peters werden folgende Vorträge halten:
Vortrag 09.06.2022: Uwe Peters (Cambridge/Bonn): Regulative Reasons: Über den Unterschied in der Undurchsichtigkeit zwischen algorithmischer und menschlicher Entscheidungsfindung
Viele Systeme der künstlichen Intelligenz (KI), die zur Entscheidungsfindung eingesetzt werden, sind insofern undurchsichtig, als die internen Faktoren, die ihre Entscheidungen bestimmen, aufgrund der Komplexität der Systeme für den Menschen nicht vollständig bekannt sind. Als Reaktion auf dieses Problem haben mehrere Forscher*innen argumentiert, dass die menschliche Entscheidungsfindung ebenso undurchsichtig ist, und da vereinfachende, begründende Erklärungen (statt erschöpfender kausaler Darstellungen) einer Entscheidung im menschlichen Fall in der Regel als ausreichend angesehen werden, sollte dies auch für die algorithmische Entscheidungsfindung gelten. Ich behaupte, dass dieses Argument übersieht, dass menschliche Entscheidungen oft wesentlich transparenter sind als algorithmische Entscheidungen. Denn wenn Menschen die Gründe für ihre Entscheidungen mitteilen, haben ihre Berichte eine regulative Funktion, die sie dazu veranlasst, sich an diese Zuschreibungen zu halten. KI-Erklärungssystemen fehlt diese Funktion. Wird dies beim Vergleich zwischen algorithmischer und menschlicher Entscheidungsfindung übersehen, kann dies dazu führen, dass die Transparenz menschlicher Entscheidungsfindung unterschätzt wird und erklärungsfähige KI entwickelt wird, die Menschen in die Irre führen kann, indem sie allgemein gerechtfertigte Überzeugungen über die regulative Dimension der Entscheidungsfindung aktiviert.
Vortrag 10.06.2022: Apolline Taillandier (Cambridge/Bonn): Feministische Psychologie und Computerprogrammierung am MIT
In diesem Beitrag wird untersucht, wie die Computersprache Logo, die in den späten 1960er Jahren am MIT als Lernprogramm für den Mathematikunterricht entwickelt wurde, als feministisches Werkzeug verstanden wurde. Ursprünglich wurde Logo als ein Projekt der "angewandten künstlichen Intelligenz" (McCorduck, 2004) beschrieben, das dazu beitragen sollte, einen pluralistischen, demokratischen Ansatz für die Programmierung zu popularisieren. Schulversuche mit Logo erbrachten den Beweis, dass verschiedene Arten von Kindern das Programmieren auf unterschiedliche Weise praktizierten: Während Jungen häufig einen traditionellen, "harten" Programmierstil entwickelten, programmierten Mädchen häufig in einem Stil, den die Befürworter von Logo als "Basteln" oder "Bricolage" bezeichneten. Anhand von Schriften und Archivmaterial von Seymour Papert und Sherry Turkle zeichne ich nach, wie Logo in den 1980er Jahren als Instrument zur Untergrabung sexistischer Normen in der Informatik umgestaltet wurde. Dies wirft ein Licht darauf, wie feministische Debatten über Erkenntnistheorie und Moral dazu beitrugen, die Bedingungen der Geschlechterpolitik in der US-amerikanischen akademischen Welt neu zu gestalten.