Siri, lösche das Licht! Alexa, was sagt der Wetterbericht? Heutzutage sind sogenannte intelligente persönliche Assistenten wie Lautsprecher mit Spracherkennung kaum mehr aus unserem Alltag wegzudenken. Doch wirken sie sich ausschließlich positiv auf uns auf? Wie sieht die langfristige Mensch-Assistent-Beziehung aus? Diese Fragen stellten sich auch Prof. Dr. Sascha Alavi, Lehrstuhlinhaber am Sales Management Department der RUB, und seine Forscherkollegen Prof. Dr. Valéry Bezençon und Ertuğrul Uysal von der Universität Neuchâtel. In ihrer gemeinsamen Studie, veröffentlicht im Journal of the Academy of Marketing Science, zeigen die Ökonomen, dass persönliche Assistenzsysteme langfristig auch schädigende Effekte auf Nutzerinnen und Nutzer haben können.
„Bisherige Studien haben sich vornehmlich und ausschließlich mit den Vorteilen der intelligenten Assistenzsysteme auseinandergesetzt, ihren Nutzen für die Arbeitswelt, für Unternehmen, insbesondere aus kommerzieller Sicht, hervorgehoben. Wir haben uns auch für die potenziell schädigenden Folgen für Konsumentinnen und Konsumenten interessiert“, berichtet Alavi. Dazu führte er gemeinsam mit seinen Kollegen Umfragen mit mehr als 1.000 Nutzerinnen und Nutzern von intelligenten Sprachassistenten sowie qualitative Tiefen-Interviews mit elf Nutzern durch.
Intensive Nutzung kann Wohlbefinden beeinträchtigen
Die Umfrage ergab, dass Nutzerinnen und Nutzer von intelligenten persönlichen Assistenten diesen einen nahezu menschlichen Verstand zuschreiben. Diese Zuschreibung ermögliche es, dass sie eine persönliche Beziehung mit den Geräten eingehen, sie positiv bewerten, ihnen vertrauen. „Unsere Studienergebnisse bestätigen also zunächst einen durchaus positiven Effekt der Mensch-Technologie-Beziehung“, so Alavi. Auf der anderen Seite konnte das Forschungsteam erstmals auch beweisen, dass ebendieses Zuschreiben menschlicher Eigenschaften auf die Technologie negative Effekte haben kann.
30 Prozent der Nutzerinnen und Nutzer fühlen sich bedroht.
„Unserer Studie zufolge fühlen sich etwa 30 Prozent der Nutzerinnen und Nutzer mitunter auch von den Systemen in ihrer Identität bedroht. Sie nehmen die Assistenten als rivalisierend wahr. Sie sorgen sich um ihre Unabhängigkeit, sehen ihre Privatsphäre in Gefahr“, erklärt Alavi.
Honeymoon-Effekt
Diese schädigenden Effekte würden besonders dann häufig auftreten, wenn zwischen Mensch und Assistenzsystem bereits eine enge, lange Beziehung bestünde. „In den ersten acht Monaten gibt es keine Probleme. Man könnte von einem ‚honeymoon Effekt‘ sprechen“, so Alavi. Danach setze die stressende Wirkung ein. „Bei etwa 20 Prozent der Konsumentinnen und Konsumenten beeinträchtigt die intensive Nutzung von Artificial Intelligence Assistants (AIA) über einen Zeitraum von acht Monaten ihr Wohlbefinden“, fasst Alavi zusammen. Der Stress rühre vor allem daher, dass Menschen sich sorgen würden, dass solche Technologien sie eines Tages ersetzen könnten. „Das ist ja mittlerweile eine sehr präsente Gefahr in der Arbeitswelt“, so der Ökonom.
Strategien zum Schutz
Die Forschenden haben in ihrer Studie auch drei Wege identifiziert, wie man den schädigenden Langzeiteffekten, der Angst vor Identitätsverlust und Stress, vorbeugen könnte. Dazu testeten sie in einem Feldexperiment drei mögliche Strategien. „Wir konnten sehen, dass die schädlichen Effekte nicht so stark auftraten, wenn sich Nutzerinnen und Nutzer im Vorfeld über die Datenschutz-Praktiken der Assistenzsysteme informiert hatten, sie wussten, wie man die Einstellungen ändert und auch, wenn sie aufgefordert wurden, Vorkehrungen zum Schutz ihrer Daten vorzunehmen“, fasst Alavi zusammen. Daher empfiehlt das Team dem Marketing-Management von AIA-Unternehmen künftig mehr Informationen zum Datenschutz bereitzustellen, Konsumentinnen und Konsumenten besser und transparenter aufzuklären.
Ertugrul Uysal, Sascha Alavi, Valéry Bezençon: Trojan horse or useful helper? A relationship perspective on artificial intelligence assistants with humanlike features, in: Journal of the Academy of Marketing Science, 2022, DOI: 10.1007/s11747-022-00856-9