Netidee Blog Bild
Spannungen in algorithmischen Imaginationen
Wer vertraut automatisierten Fahrzeugen? (10.07.2023)
Förderjahr 2022 / Stipendien Call #17 / ProjektID: 6194 / Projekt: Algorithmen, AI und widerständige Praktiken

Im letzten Blogpost wurde nicht nur besprochen, was Algorithmen sind und wie sie immer nur in Verbindung mit den sozialen Rahmenbedingungen, unter denen sie entwickelt und angewandt werden, verstanden werden können, sondern auch, welcher Stellenwert ihnen bei der Selektion und Mediation von Informationen in modernen Gesellschaften zukommt. Heute will ich das Augenmerk darauf legen, wie zunehmend komplexer werdende Maschinen gesellschaftlich wahrgenommen werden, also mit welche Vorstellungen, (Rollen-) Erwartungen und Zuschreibungen wir ihnen in unserem alltäglichen Leben begegnen. Zentral möchte ich mich dabei auf den englischen Soziologen David Beer (2023) beziehen, der unter dem Titel "Tensions in Algorithmic Thinking" unseren Vorstellungen von algorithmischen Entscheidungssystemen ein spannungs- und konfliktreiches Verhältnis attestiert: Während wir uns auf der einen Seite nach danach sehnen, menschliche Fehlbarkeit durch scheinbar objektive maschinelle Entscheidungen zu überwinden, sind wir gleichzeitig besorgt, dass algorithmische Entscheidungssysteme die ihnen überlassenen Handlungsspielräume ausnutzen und ihre Autonomie damit "übertreten".

Maschinelle Imaginationen

Ob unser Smartphone oder unser Herd, unser Auto oder unsere Stereoanlage - Maschinen und Automaten sind überall und schwer aus unserem Alltag wegzudenken. Doch während wir uns die Funktionsweise unseres Toasters, wenn auch nicht bis ins letzte mechanische Detail, so aber zumindest grundsätzlich erklären können, stößt unser Alltagsverständnis in anderen Bereichen schnell an seine Grenzen: Wann genau warnt mich der Spurhalteassistent meines Autos, weil er glaubt, dass ich meinen Fahrstreifen verlasse? Wie wird die Bewegung meiner Computermaus im Detail auf den kleinen Zeiger auf meinem Bildschirm übertragen? Warum genau schlägt mir Spotify genau diesen Song, Amazon genau dieses Produkt vor? Obwohl wir Fragen wie diese gegenüber komplexen Maschinen nicht beantworten können und nur die wenigsten Menschen auf das Fachwissen zurückgreifen können, das zur Erklärung auch nur einer dieser Fragen notwendig ist, scheint es uns zur Nutzung dieser Technologien gar nicht notwendig, uns im Detail mit ihren Funktionsweisen beschäftigen zu müssen. Tatsächlich lässt sich feststellen, dass Menschen anstelle von genauen Wirkungsabläufen sogenannte "Imaginationen" von technologischen Artefakten und ihren Funktionsweisen entwickeln, anhand derer sie diese für einen bestimmten Zweck einsetzen. In meinem Alltagsverständnis muss ich also nicht über das komplizierte Zusammenspiel von zahlreichen Komponenten, die vielen Millionen Zeilen an Computercode oder die physikalischen Prinzipien der Halbleitertechnologie informiert sein, um meinen Laptop zu starten, sondern weiß einfach, welchen Knopf ich zu drücken habe, um ihn benutzen zu können.

Technologien: (sozial) konstruiert und (technologisch) determiniert

Nun sind Imaginationen von Technologien nicht autonom, also losgelöst von psychologischen und kulturellen Rahmenbedingungsengen, sondern eng verwoben mit ihrem Design, ihrer Geschichte und ihrer sozialen Einbettung. Menschen neigen etwa dazu, Maschinen zu vermenschlichen oder sich Algorithmen als eine Person vorzustellen, die eigene Absichten hat (Siles et al. 2020). Gleichzeitig sind unsere Vorstellungen von Technologien geprägt von Sozialisation, kulturellen Parametern und persönlichen Vorerfahrungen. Die Gründe, warum Männer sich oft positiver gegenüber neuen Technologien positionieren als Frauen sind, lassen sich daher auf gesellschaftlich vermittelte Rollenbilder und vergeschlechtliche Sinnzusammenhänge zurückführen, in denen diese Stereotype reproduziert werden. Gleichzeitig fließen in Technologien unzählige Designentscheidungen ein, die gesellschaftliche Verhältnisse und Wertvorstellungen widerspiegeln. Evident wird das, wenn wir uns vor Augen führen, wie groß (also für wessen Hände) bestimmte Artefakte sind, welche Vorannahmen in Ihnen über zukünftige Benutzer:innen getroffen werden (z.B.: Benutzer:in muss lesen können) wer dadurch von ihrer Benutzung ausgeschlossen wird (z.B. Menschen mit Behinderung oder bestimmten Einschränkungen). Die persönliche Erfahrung von Technologien im Alltag ist daher immer untrennbar mit den Möglichkeiten ihrer Nutzung ("affordances"), die Resultat von bewussten und unbewussten Designentscheidungen sind sowie den psychologischen und sozialen Bedingungen, unter denen die zur Anwendung notwendigen Imaginationen entstehen und reproduziert werden. Technologien sind damit sowohl determiniert, weil ihr Design bestimmte Nutzungsarten zulässt und andere ausschließt und gleichzeitig sozial konstruiert, weil die Art und Weise ihrer Nutzung immer von kulturellen Bedeutungen abhängt, die mit ihnen in Verbindung stehen. Zentral für die Frage danach, wie, zu welchem Zweck und mit welchem Sinn Menschen Technologien nutzen, ist also die Betrachtung des Zusammenspiels dieser Faktoren, dies sich empirisch auf der Ebene der diskursiven Bedeutungen (Einstellungen zu und Vorstellungen von Technologien) und der praktischen Einbettung (Handlungspraxis, etwa durch Beobachtung oder Artefaktanalyse) soziologisch erforschen lassen.

Spannungen in algorithmischen Imaginationen

Nachdem Imaginationen und Bedeutungen von Technologien, egal ob technologisch durch Designentscheidungen determiniert oder durch diskursive Prozesse konstruiert, immer gesellschaftlich verhandelt sind, spiegeln sie auch Machtverhältnisse und Interessen wider, die sich etwa auch in widersprüchlichen Auffassungen gegenüber ein und derselben Technologie äußern (ein Hammer kann etwa Werkzeug oder Tatwaffe sein). Als zentrales Moment moderner Gesellschaften diagnostiziert Beer (2023) eine Form des "algorithmischen Denkens", das sich durch zunehmend komplexer werdende Technologien und der damit verbundenen Imaginationen auf dem Vormarsch befindet, und das sich durch "Spannungen" auszeichnet. Algorithmische Anwendungen verschieben nicht nur die Grenze zwischen dem, was "richtiges" Wissen ist und was überhaupt "gewusst werden kann", sondern werden gleichzeitig auch auf den gegensätzlichen Polen der ihnen zugestandenen Autonomie bewertet: Einerseits als Erlösung vom fehlerbehafteten "Faktor Mensch", der durch algorithmische Unfehlbarkeit ersetzt wird, andererseits durch die Möglichkeit, dadurch die legitime einer Maschine zugesprochene Autonomie zu "übertreten" und somit als Konkurrent um Handlungsmacht wahrgenommen zu werden. Veranschaulicht anhand eines konkreten Beispiels können wir uns etwa fragen, woher ein Empfehlungsalgorithmus die Dinge, die er über uns zu wissen glaubt, tatsächlich weiß, wie aus diesem Wissen Erkenntnisse über uns abgeleitet werden können, wie diese dann zu konkreten Empfehlungen führen und ob es überhaupt legitim ist, dass diese Entscheidungen autonom und fernab jeder menschlichen Nachvollziehbarkeit getroffen werden können.

Wer vertraut automatisierten Fahrzeugen?

Während Fehlentscheidungen von Empfehlungsalgorithmen unseren Alltag wahrscheinlich nur wenig beeinflussen, geht von anderen algorithmischen Anwendungen, wie zum Beispiel automatisieren Fahrzeugen, eine weitgehend größere Gefahr aus. In einem bald erscheinendem Artikel (Zenkl & Griesbacher, 2023) haben wir uns daher mit der Frage auseinandergesetzt, welche Auswirkungen die Imaginationen von alltagssprachlich oft als "selbstfahrende Autos" bezeichnete Technologien auf die ihnen zugesprochene Vertrauenswürdigkeit hat. Dabei kommen wir zu dem Ergebnis, dass soziodemografische Einflüsse ausschlaggebend dafür sind, ob Menschen sich vorstellen können, automatisierten Fahrzeugen in Zukunft zu vertrauen. Noch wichtiger allerdings ist die "Technikaffinität" der Befragten und damit, wie positiv sie technologische Entwicklungen generell einschätzen. Dabei werden jedoch auch die besprochenen "Spannungen im algorithmischen Denken" evident, denn auch eine generell positive Einstellung gegenüber dieser Technologie bedeutet nicht, dass die Befragten sie unkritisch betrachten. Die Hoffnung, dass sich menschliche Fehler im Straßenverkehr durch die Automatisierung von Fahraufgaben verringern, kommt bei den Befragten selten ohne der Befürchtung, dass automatisierte Fahrzeuge auch mit einem Verlust an persönlicher Autonomie und der Möglichkeit, im Verkehrsgeschehen zu intervenieren, einher. Die Imaginationen von automatisierten Fahrzeugen entsprechen damit weitgehend jener Achse von Beers Konzept, das dem algorithmischen Denken eine Gleichzeitigkeit von Befürchtungen des "Übertretens" legitimer maschineller Autonomie und der Vision einer "post-humanen Sicherheit" attestiert.

Beer, D. (2023). The tensions of algorithmic thinking: Automation, intelligence and the politics of knowing. Bristol University Press.

Siles, I., Segura-Castillo, A., Solís, R., & Sancho, M. (2020). Folk theories of algorithmic recommendations on Spotify: Enacting data assemblages in the global South. Big Data & Society, 7(1), 205395172092337. https://doi.org/10.1177/2053951720923377

Zenkl, T., Griesbacher, M. (forthcoming, 2023). Who Trusts Automated Vehicles? Investigating Tensions in ADS Imaginaries. In: Conference Proceedings of the 21th STS Conference Graz 2023.

Tags:

Algorithmisches Denken Imaginationen AI Künstliche Intelligenz

Thomas Zenkl

Profile picture for user t.zenkl
Thomas Zenkl ist wissenschaftlicher Mitarbeiter am Institut für Soziologie der Universität Graz und interessiert sich für die Wechselwirkungen zwischen Gesellschaft und Technologien. In seinem Promotionsprojekt beschäftigt er sich mit der Frage, wie Algorithmen und KI-Anwendungen soziale Beziehungen über die ihnen innewohnende "algorithmischen Macht" beeinflussen sowie warum und auf welche Weise sich die Nutzer:innen solcher Systeme abweichend von den eigentlichen Intentionen der Systeme verhalten. Im Gegensatz zu einer technodeterministischen Perspektive zielt dieser Ansatz darauf ab, die Transformation menschlicher Handlungsfähigkeit (und nicht ihre Unterdrückung) in den Fokus der Betrachtung zu stellen und somit die konfliktträchtige gesellschaftliche Einbettung "sozialisierter Maschinen" zu beleuchten.
CAPTCHA
Diese Frage dient der Überprüfung, ob Sie ein menschlicher Besucher sind und um automatisierten SPAM zu verhindern.
    Datenschutzinformation
    Der datenschutzrechtliche Verantwortliche (Internet Privatstiftung Austria - Internet Foundation Austria, Österreich würde gerne mit folgenden Diensten Ihre personenbezogenen Daten verarbeiten. Zur Personalisierung können Technologien wie Cookies, LocalStorage usw. verwendet werden. Dies ist für die Nutzung der Website nicht notwendig, ermöglicht aber eine noch engere Interaktion mit Ihnen. Falls gewünscht, treffen Sie bitte eine Auswahl: