Klicken Sie hier, wenn dieser Newsletter nicht richtig angezeigt wird

 
 
 
 

Erlesenes #67

5 Denkanstöße rund um Algorithmenethik

 

02.05.2019

Willkommen zur 67. Ausgabe der wöchentlichen Algorithmenethik-Lektüreempfehlungen "Erlesenes".

Können Algorithmen posttraumatische Belastungsstörungen erkennen? Braucht es ein neues Forschungsfeld zu Künstlicher Intelligenz (KI)? Müssen wir algorithmische Systeme vor Menschen schützen? Diese und andere spannende Fragen gibt es auch diese Woche im Erlesenes-Newsletter.

Helfen Sie mit, den Erlesenes-Newsletter weiterzuentwickeln und beantworten Sie 12 kurze Fragen unserer Umfrage!

Die Meinungen in den Beiträgen spiegeln nicht zwangsläufig die Positionen der Bertelsmann Stiftung wider. Wir hoffen jedoch, dass sie zum Nachdenken anregen und zum Diskurs beitragen. Wir freuen uns stets sehr über Vorschläge für Erlesenes von unseren Leser:innen. Wer einen spannenden Text gefunden hat, kann uns diesen gerne per E-Mail an lajla.fetic@bertelsmann-stiftung.de zukommen lassen.

Ein Algorithmus, der posttraumatische Belastungsstörungen an der Sprache erkennt
(The Military Wants Better Tests for PTSD. Speech Analysis Could Be theAnswer), 22. April 2019, New York Times
Das Forschungsinstitut SRI International, von dem das heute von Apple verwendete Sprachassistenzsystem Siri entwickelt wurde, sowie ein Team von Wissenschaftler:innen der New York University School of Medicine haben einen Algorithmus geschaffen, der an der Sprache von Patient:innen Anzeichen für eine posttraumatische Belastungsstörung (PTBS) erkennt. New-York-Times-Reporter Dave Philipps berichtet über das vom US-Militär mitfinanzierte Verfahren, das aus über 40.000 Charakteristika menschlicher Sprache 18 identifiziert, die bei gleichzeitigem Auftreten auf PTBS hindeuten. Der Algorithmus erreiche eine Trefferquote von 89 Prozent. Die Methode sei nützlich, da manche PTBS-Patient:innen – gerade im Militär – ihr eigenes Befinden trotz vorliegender Symptome aus Angst vor Stigmatisierung verheimlichen, und andere es als überzeichnet darstellen würden, um möglicherweise mehr Krankengeld zu erhalten. Die Methode könne Psycholog:innen künftig in unklaren Fällen bei der Diagnose assistieren, schreibt Philipps.

Wissenschaftler:innen fordern neues Forschungsfeld “Machine Behaviour”
(MIT finally gives a name to the sum of all AI fears), 25. April 2019, ZDNet
Die rasante Entwicklung auf dem Feld der Künstlichen Intelligenz (KI) erfordert ein neues, interdisziplinäres akademisches Forschungsfeld, das bestehende Silos aufbricht, konstatieren Forscher:innen des MIT Massachusetts Institute of Technology sowie zahlreicher anderer Institutionen, darunter auch des Berliner Max- Planck-Instituts für Bildungsforschung, in einem aktuellen Papier (Blogbeitrag dazu hier).Der von ihnen vorgeschlagene Begriff: “Machine Behaviour” (frei übersetzt “Maschinenverhalten”). Tiernan Ray, Reporter bei ZDNet, erklärt die Beweggründe der Forscher:innen und das von ihnen vorgeschlagene, aus den vier Elementen “Mechanismus”, “Entwicklung”, “Funktion” und “Evolution” bestehende Rahmenwerk, um das Verhalten von maschinellen Systemen zu studieren. Wie Ray anmerkt, werde aber auch eine Bündelung der Disziplinen die verschiedenen Herausforderungen von KI-Forschung nicht vom Tisch fegen können. Das seien vor allem das Zusammenbringen der unterschiedlichen Perspektiven und die Tatsache, dass Forscher:innen der Zugang zu kommerziellen Algorithmen häufig verwehrt wird.

Die neue digitale Spaltung: Das Wissen über Algorithmen
(The new digital divide is between people who opt out of algorithms and people who don’t), 17. April 2019, The Conversation
Die digitale Spaltung ist inzwischen mehr als die bloße Zugangsfrage, sondern vollzieht sich verstärkt darüber, wie gut Menschen über den Einfluss von Algorithmen auf ihr Leben informiert sind. Diese These vertritt Anjana Susarla, Professorin im Bereich Informationssysteme an der Michigan State University. Für die Mehrheit der Anwender:innen seien die Algorithmen Black Boxes. Dennoch würden viele Menschen Empfehlungen von Algorithmen ein größeres Vertrauen schenken als menschlichen Urteilen (“Algorithmic Appreciation”). Ohne Grundwissen über die Funktionsweise der Systeme sei es unmöglich, die Konsequenzen des “Always-on”-Lebensstils zu beurteilen und durchdachte Entscheidungen darüber zu treffen, sich von Fall zu Fall einem Algorithmus zu entziehen. Dies, so Susarla, sei ein Luxus, der derzeit und de facto nur wenigen offenstehe.

Zwei Philosophen diskutieren ethischen Schutz von KI analog zu Tieren
(AIs should have the same ethical protections as animals), 26. April 2019, Aeon Magazine
Künstliche Intelligenz (KI) mit einem Intelligenzgrad, der mindestens dem des Menschen entspricht, ist – sofern sie überhaupt jemals entwickelt wird – noch pure Science Fiction. KI, die in ihren Kognitionsfähigkeiten und ihrem Wesen Tieren ähnelt, sei allerdings nicht mehr weit entfernt. Deshalb sei es Zeit für eine Diskussion über ethische Regeln im Umgang mit solcher KI, schreiben die Philosophieprofessoren John Basl und Eric Schwitzgebel in diesem Beitrag. Das Duo vertritt den Standpunkt, dass eine mit dem Denken und der Wahrnehmung von Tieren vergleichbare KI auch dem Tierschutz ähnliche Maßnahmen benötige. Basl und Schwitzgebel schlagen beispielsweise die Bildung interdisziplinärer Komitees vor, die künftige Forschung an KI hinsichtlich ihrer ethischen Implikationen prüft. Damit solle nicht die Erforschung gesellschaftlicher Konsequenzen gemeint sein, sondern vielmehr die Diskussion über mögliche Implikationen für die KI selbst. Die Autoren stellen die Frage, welche negativen Wirkungen der Mensch auf KI-basierte Systeme haben könne, somit in den Mittelpunkt künftiger Überlegungen.

Ein Algorithmus löscht für tausende Betroffene Vorstrafen
(An algorithm wipes clean the criminal pasts of thousands), 29. April 2019, BBC
Weil Kalifornien im Jahr 2016 den Cannabis-Besitz legalisierte, könnten viele Tausend Bürger:innen rückwirkend ihre Vorstrafen eliminieren lassen – doch der Prozess ist bürokratisch umständlich und wenig bekannt. Ein Algorithmus der NonProfit-Organisation Code For America löst das Problem nun auf elegante und sehr effiziente Weise, wie Dave Lee, Technologiereporter der BBC, in diesem Artikel berichtet. Das System könne innerhalb weniger Minuten Jahrzehnte von Gerichtsdokumenten durchforsten, relevante Fälle identifizieren und auch gleich noch die nötige Papierarbeit übernehmen, um eine Löschung von nicht mehr illegalen Delikten der Vergangenheit zu beantragen. Code For America wolle den Algorithmus auch in anderen Regionen der USA einsetzen und habe sich zum Ziel gesetzt, dieses Jahr 250.000 Delikte löschen zu lassen. Angesichts der Hindernisse, die den Betroffenen aus Einträgen im Vorstrafenregister entstehen können, seien die Chancen dieser Methode weitreichend.

Das war‘s für diese Woche.

Sollten Sie Feedback, Themenhinweise oder Verbesserungsvorschläge haben, mailen Sie uns gerne: lajla.fetic@bertelsmann-stiftung.de 

Sie können die Algorithmenethik Lektüreempfehlungen „Erlesenes“ hier abonnieren

 

 

Eine Abmeldung vom Newsletter-Tracking ist hier jederzeit möglich.

 

Sie wollen diesen Newsletter nicht mehr erhalten oder Ihr Newsletter-Profil bearbeiten? Dann klicken Sie bitte hier.

 

Wir freuen uns über Ihre Fragen, Anregungen und Tipps:

 

Martin Weigert

Autor

 

Lajla Fetic

Redaktion

 

Bertelsmann Stiftung

Carl-Bertelsmann-Str. 256

33311 Gütersloh

Tel: +49 5241-8181216

Fax: +49 5241-81681216

E-Mail: lajla.fetic@bertelsmann-stiftung.de

 

Die Bertelsmann Stiftung ist eine gemeinnützige Stiftung des privaten Rechtes im Sinne von

Abschnitt 1 des Stiftungsgesetzes für das Land Nordrhein-Westfalen mit Sitz in Gütersloh.

Zuständige Aufsichtsbehörde ist die Bezirksregierung Detmold.

Stifter: Reinhard Mohn

Vorsitzender des Kuratoriums: Prof. Dr. Werner J. Bauer

Vorstand: Dr. Ralph Heck (Vorsitzender), Dr. Brigitte Mohn, Prof. Dr. Daniela Schwarzer