Offen ChatGPT und Sie können zwischen wählen verschiedene Stimmen. Manche wirken offensichtlich weiblich, andere maskulin und einige sind eher neutral. Sie haben auch ziemlich neutrale Namen, wie Ember, Sol und Juniper.
Aber das war nicht immer so. Jahrelang hatten viele KI-gestützte Assistenten die Standardeinstellung: weiblich. Obwohl ChatGPT nicht genau die gleiche Art von System ist wie die ersten Sprachassistenten, die zuerst in unsere Häuser Einzug hielten, denken Sie an ihre Namen: Siri, Alexa, Cortana. Selbst wenn sie nicht explizit geschlechtsspezifisch waren, waren die Stimmen oft geschlechtsspezifisch.
Die Leute fragen diese Systeme nicht nur nach dem Wetter. Sie vertrauen ihnen und verlassen sich bei der Arbeit auf sie. Manche missbrauchen sie sogar. Am anderen Ende des Spektrums entwickeln einige eine tiefe emotionale Bindung zu ihnen. Wenn die Konversations-KI, die uns so viel bedeuten kann, so gestaltet ist, dass sie menschlich und oft spezifisch weiblich klingt, kann diese Wahl die Erwartungen darüber beeinflussen, wer dient, wer hilft und wer Autorität innehat.
Warum hatten frühe KI-Assistenten weibliche Stimmen?
Es gibt keine eindeutige Antwort. Die ersten Sprachassistenten wurden zu einer Zeit entwickelt, als ein Großteil der verfügbaren Sprachdaten, darunter Kundendienstaufzeichnungen und Telekommunikationsarchive, von Frauenstimmen dominiert wurde. Das beeinflusste also frühe Design- und Trainingsentscheidungen.
Doch Helferrollen wurden schon lange vor der Digitalisierung feminisiert. Denken Sie an Telefonisten, Sekretärinnen und Rezeptionisten. Positionen, die mit Assistenz und emotionaler Arbeit verbunden sind, wurden in der Vergangenheit von Frauen ausgeübt, und diese Assoziationen haben sich als äußerst langlebig erwiesen. Sowohl in der Art und Weise, wie Technologieunternehmen diese Produkte entworfen haben, als auch in dem, was wir von ihnen erwarten.
Dies ist zum Teil der Grund dafür, dass Unternehmen die standardmäßige Verwendung einer weiblichen Stimme oft damit rechtfertigen, dass sie sich auf Forschungsergebnisse berufen, die darauf hindeuten, dass Menschen weibliche Stimmen angenehmer, vertrauenswürdiger oder einfacher finden, mit ihnen in Kontakt zu treten. Was ich faszinierend finde, ist, dass ja, Es gibt Forschung, die Aspekte davon neben dem breiteren kulturellen Kontext unterstützt. Aber die Ergebnisse sind nicht endgültig. Präferenzen werden durch soziale Normen, Erwartungen an Autorität und Fürsorge sowie Vorstellungen darüber, welche Stimmen zu bestimmten Rollen in bestimmten Kontexten „passen“, geprägt.
Es gibt auch eine weithin wiederholte Behauptung, dass Menschen von klein auf Frauenstimmen bevorzugen. Babys hören die Stimme ihrer Mutter schon im Mutterleib, heißt es, und deshalb sind wir dazu veranlagt, positiv auf weibliche Stimmen zu reagieren.
Aber Kate Devlin, Professorin für KI und Gesellschaft am Department of Digital Humanities des King’s College London, stellt dieses Narrativ in Frage. In ihrem Buch Eingeschaltet: Wissenschaft, Sex und Roboterschreibt sie:
„Die Idee dahinter ist, dass Babys im Mutterleib mehr auf die Stimme ihrer Mutter als auf alle anderen Stimmen reagieren. Aber liegt das nicht daran, dass sie sich in ihrer Mutter befinden? Ich habe meinen Freund, den Babyforscher Caspar Addyman, gefragt, ob das der Fall sein könnte. ‚Babys bevorzugen tatsächlich weibliche Stimmen und Gesichter‘, sagte er mir. ‚Aber nur in den ersten acht Monaten oder so. Mir sind keine Beweise dafür bekannt, die über diesen Zeitraum hinausgehen.‘“
Mit anderen Worten: Selbst wenn eine frühe Präferenz vorhanden ist, erklärt dies möglicherweise nicht das Verhalten von Erwachsenen oder die Art und Weise, wie sich unsere Präferenzen im Laufe der Zeit entwickeln.
Neuere Forschungsergebnisse erschweren die Annahme, dass Nutzer weibliche Assistenten stark bevorzugen, weil sie als vertrauenswürdiger wahrgenommen werden. A Studie 2021 fanden heraus, dass bei geschlechtsspezifischen Sprachassistenten zwar Stereotypisierung auftreten kann, es jedoch keine signifikanten Unterschiede im Vertrauen zwischen einer geschlechtsspezifischen Stimme und einer geschlechtsspezifischen Stimme gab. Wenn Vertrauen nicht zuverlässig von der Weiblichkeit abhängt, wird es schwieriger, die Gründe für den Rückgriff auf sie zu verteidigen.
Auch die Medien haben eine Rolle gespielt. Ich habe bereits darüber geschrieben, wie Science-Fiction beeinflusst, wie wir mit KI umgehen Heutzutage und viele unserer Lieblings-Science-Fiction-Geschichten haben sich KI schon lange in feminisierten Formen vorgestellt. Denken Sie verführerisch Betriebssystemefügsame digitale Begleiter, unterwürfige Roboterhelfer. Natürlich gibt es männliche Roboter und KIs, aber der Archetyp der „hilfsbereiten weiblichen Maschine“ bleibt bestehen.
Wenn diese Standardvorgaben ihre Wurzeln in älteren Arbeitsrollen, vererbten Stereotypen und Forschungsergebnissen haben, die möglicherweise nicht mehr allgemein gültig sind, warum sollten sie dann aufrechterhalten werden? Die Technik scheut sich selten, sich neu zu erfinden. Wenn wir die Zukunft gestalten, könnten wir uns dafür entscheiden, sie anders und gerechter zu gestalten.
Warum ist es wichtig?
Das mag für manche Leute trivial klingen. Es ist nur eine Stimme und Benutzer können sie jetzt trotzdem ändern, oder? Aber hier geht es nicht nur darum, wie KI klingt. Es ist das, was es symbolisiert, verstärkt und die Rückkopplungsschleifen, die es erzeugt.
Eine Studie aus dem Jahr 2024 mit dem Titel Die Feminisierung KI-gestützter Sprachassistenten erklärt: „Diese Voreingenommenheit kann sich auf unterschiedliche Weise und auf unterschiedlichen Ebenen manifestieren, z. B. durch Voreingenommenheit bei Trainingsdaten, Herausforderungen beim integrativen Design, stereotype Antworten, die geschlechtsspezifische Vorurteile verstärken, weibliche Stimmvorgabe, passiver oder unterwürfiger Tonfall, schlechter Umgang mit Belästigung und unzureichende Auswahl an verschiedenen Stimmoptionen.“
Die Forschung deutet zunehmend darauf hin dass geschlechtsspezifische Technologien nicht nur Stereotypen widerspiegeln, sondern sie auch verfestigen und Erwartungen darüber prägen können, wer dient, wer unterstützt und wer Autorität innehat.
Heutzutage haben Benutzer mehr Auswahl. Viele Assistenten und Chatbots verwenden standardmäßig immer noch eine weibliche Stimme, es stehen jedoch zunehmend männliche und geschlechtsneutrale Optionen zur Verfügung. Allerdings gibt es zum Zeitpunkt des Verfassens dieses Artikels noch keine klaren Regulierungsstandards, die sich mit Geschlechterstereotypen im KI-Design befassen.
Es geht um mehr als nur die Spracheinstellungen. Der Ausbau wirklich neutraler Optionen ist ein Schritt. Ein weiterer Aspekt ist die zunehmende Geschlechtervielfalt innerhalb der KI-Entwicklungsteams. Designentscheidungen spiegeln oft wider, wer sich im Raum befindet. Und trotz der Tatsache, dass mehr Menschen als je zuvor KI-Systeme nutzen und von ihnen geprägt werden, sind Frauen in der KI-Entwicklung nach wie vor unterrepräsentiert. Aktuelle Schätzungen deuten darauf hin Sie bekleiden weltweit etwa 22–26 % der KI-bezogenen Positionen und weniger als 15 % der leitenden KI-Führungspositionen.
Dies ist vielleicht mehr als alles andere eine Erinnerung daran, dass Technologie die Kultur prägt und Kultur im Gegenzug die Technologie prägt. Wenn wir gerechtere Systeme wollen, in der KI und darüber hinaus, lohnt es sich, diesen Kreislauf zu unterbrechen.
Folgen Sie TechRadar auf Google News Und Fügen Sie uns als bevorzugte Quelle hinzu um unsere Expertennachrichten, Rezensionen und Meinungen in Ihren Feeds zu erhalten. Klicken Sie unbedingt auf die Schaltfläche „Folgen“!
Und natürlich können Sie das auch Folgen Sie TechRadar auf TikTok für Neuigkeiten, Rezensionen, Unboxings in Videoform und erhalten Sie regelmäßige Updates von uns WhatsApp zu.



