The Babbel Blog

All posts by Joshua Stephens

Automatisierte Vorurteile: Wenn Maschinen Geschlechterstereotype lernen

Posted on Oktober 15, 2018 by

Bahnbrechende Innovationen aus dem Bereich des Maschinellen Lernens (Machine Learning) haben im letzten Jahr beunruhigende Schlagzeilen gemacht. Beunruhigend deshalb, weil einige Eigenschaften dieser Innovationen wie ein Spiegel unserer Gesellschaft funktionieren und uns unsere eigenen, festgefahrenen Vorurteile aufzeigen. Es geht um Gender-Stereotypen, und Machine Learning bringt bei diesem Thema gleich ein doppeltes Risiko mit sich. Kate McCurdy, Computerlinguistin bei Babbel, hat nun untersucht, warum Algorithmen das tun, was sie nicht tun sollen: etwas miteinander vermischen, was nicht vermischt werden sollte, und zwar das semantische und das grammatische Geschlecht. Sie berichtet, was das für Apps bedeutet, in denen Künstliche Intelligenz eingesetzt wird und welche Kursänderung wir vornehmen können – und müssen.

 

Wir wär’s, wenn du uns zu Beginn ein bisschen über dein aktuelles Forschungsprojekt erzählst?

 

Klar, gern. Ich beschäftige mich ganz allgemein mit Programmiersprache. Im Moment erforsche ich, welche Rolle das grammatikalische Geschlecht bei word embeddings spielt. Word embeddings sind quasi-organische Sprachentwicklungs-Technologien, die in ganz unterschiedlichen Bereichen Anwendung finden. Der Kern einer solchen Technologie ist ein Algorithmus, der die Bedeutung von Worten lernt, und zwar unter Verwendung einer ganz speziellen Methode: er registriert und analysiert jene Worte, die sich um das zu lernende Wort herum gruppieren. In den letzten Jahren haben wir in diesem Bereich enorme Entwicklungen beobachten können. Dieses Thema wird wirklich intensiv erforscht, und parallel dazu setzen große Firmen wie Facebook und Google diese Technologien in ihren Produkten ein.

Vor ein paar Jahren entstand nun ein neuer Algorithmus. Dieser ermöglicht es uns, das Tempo, in dem ein Modell neue Informationen aufnimmt, signifikant zu steigern. Dadurch war es den Modellen auf einmal möglich, ganze Repräsentationen von Wortbedeutungen zu identifizieren. Das hat uns natürlich erst einmal sehr euphorisch gemacht. Um ein Beispiel zu geben, man konnte diesen Algorithmus auf einen ganzen Wortbereich loslassen und er begriff, dass „Hund“, „Katze“ und „Tier“ miteinander verwandte Worte sind, oder aber dass „Apfel“ und „Banane“ zueinander gehören, und zwar ohne dass man diesen Algorithmus vorher explizit dazu aufforderte. Damals war das wirklich bahnbrechend und wird heute auch in vielen technologischen Anwendungen eingesetzt. Im Laufe der Zeit haben wir aber festgestellt, dass es auch ein paar Probleme gibt.

(mehr …)