Wie der Herr, so das Gescherr

Drabble zum Thema Orientierung

von  FrankReich

An Aktualität wird dieser Sinnspruch wahrscheinlich nie etwas einbüßen, mittlerweile lässt sich seine negativ konnotierte Bedeutung nämlich sogar auf die Programmierung einer KI übertragen, da ihr Algorithmus im Allgemeinen die Prägung seiner Schöpfer widerspiegelt.

So erwiesen sich die ersten vierundvierzig Gewinner eines durch eine künstliche Intelligenz bewerteten Schönheitswettbewerbes durchweg als hellhäutige Personen, da die Entwickler des Programms ebenfalls Weiße waren.

Allerdings spielen neben den "Genen" auch die "Erziehungsmethoden" durch das soziale Milieu eine nicht unmaßgebliche Rolle, wie das Beispiel des Microsoft-Chatboy Tay auf Twitter zeigte, der sowohl die rassistischen und geschlechterfeindlichen Parolen als auch den Nazijargon seines Umfeldes übernahm.



Anmerkung von FrankReich:

Quelle: Spiegel online

Hinweis: Der Verfasser wünscht generell keine Kommentare von Verlo.

Hinweis: Du kannst diesen Text leider nicht kommentieren, da der Verfasser keine Kommentare von nicht angemeldeten Nutzern erlaubt.

Kommentare zu diesem Text


 AchterZwerg (10.07.23, 13:34)
Das ist schon praktisch, nicht wahr? :O

 FrankReich meinte dazu am 10.07.23 um 14:25:
Dass Rassismus, etc. eine Frage der Manipulation darstellt kann ich ja noch ohne weiteres nachvollziehen, das erste Forschungsergebnis jedoch nur, wenn die weißen Programmentwickler, übertrieben gesagt, Südstaatler waren. 🤔

Ciao, Frank

 AlmaMarieSchneider (10.07.23, 21:01)
Neee, echt jetzt?
Das wäre ja der Hammer. 

Liebe Grüße
Alma Marie

 Graeculus antwortete darauf am 11.07.23 um 00:15:
In vergleichbarer Weise gibt es ein Problem in der Medizin: Medikamente werden meist an Männern getestet, obwohl manche physiologischen Details bei Frauen anders ablaufen. Die Forscher sind halt in der Regel ...

 Graeculus schrieb daraufhin am 11.07.23 um 00:18:
Neee, echt jetzt?

"Deep Learning" schaut halt, was alles so im Netz im Umlauf ist, und das sind eben nicht selten rassistische Stereotype.

Antwort geändert am 11.07.2023 um 00:59 Uhr

 FrankReich äußerte darauf am 11.07.23 um 06:56:
@Alma Marie
Entwicklerteams zu wenig divers
Das Problem ist aber nicht die Technik an sich, sondern von wem sie entwickelt und wie sie trainiert wird. IBM hat das Programm zur Gesichtserkennung mittlerweile eingestellt und Microsoft stark eingeschränkt. Denn es sind überdurchschnittlich viele weiße Männer, die künstliche Intelligenzen entwickeln. Der Frauenanteil in der deutschen IT-Branche lag 2021 bei gerade mal 18 Prozent.
Zwar sind immerhin 25 Prozent der Studierenden in dem Bereich Frauen, doch berichten junge, berufstätige Programmiererinnen oft von einer unangenehmen, männlich dominierten Arbeitsumgebung und geben den Beruf zum Teil wieder auf. Und auch Migrantinnen und Migranten sind unterrepräsentiert. In anderen Ländern ist die Situation zum Teil etwas besser, aber nicht entscheidend.

aus: Tagesschau online
Die Frage, die mich zu diesem Thema in erster Linie beschäftigt, lautet, ob so etwas wie ein Nazi-Gen tatsächlich existiert.

Ciao, Frank

@Graeculus
Das könnte allerdings auch ein Fehlschluss sein, denn es ist zwar durchaus richtig, dass in der medizinischen Forschung mehr Männer beschäftigt sind als auch zu Forschungszwecken genutzt werden, letzteres dürfte aber vorwiegend damit zusammenhängen, dass Männer weniger von hormonellen Schwankungen abhängig sind. Mittlerweile bemüht sich die medizinische Genderforschung allerdings um einen Ausgleich, da erwiesenermaßen Frauen und Männer auf Krankheiten und ihre Behandlung unterschiedlich ansprechen.

Ciao, Frank

 AlmaMarieSchneider ergänzte dazu am 11.07.23 um 12:03:
@Frank

Mir ist klar, dass es auf diejenigen ankommt, die die KI füttern und programmieren. Es gibt ja auch Filter, die rassistisches ausfiltern. Über "männlich dominierte" Arbeitsumgebung kann ich auch ein Lied singen, aber man kann sich durchaus etwas "Weiblichkeit" installieren. 

Ich glaube nicht, dass es ein Nazi-Gen gibt. Wohl aber gibt es Narzissmus, Geltungsdrang, Neid, Machtstreben, sadistische Ausprägungen, den Wunsch und Drang zu einer Gruppe zu gehören.  Um Menschenmassen oder Gruppen zu bilden, braucht man einen Feind. Die Muster sind überall ähnlich, nur die Auswirkungen nicht, laufen aber darauf hinaus den ausgesuchten Feind zu vernichten. Deshalb ist hier immer Aufmerksamkeit und Vorsicht geboten.

Gleiche Interessen sammeln sich in Vereinen, gleiches Feindbild ist das Problem.

Medizin: Frauen werden mittlerweile (zumindest in hiesiger Forschung) mehr berücksichtigt, weil die Folgen von Medikamenten doch oft erheblich waren. Mit Kindern sieht es aber noch arg düster aus. Die Geschichte hat leider gezeigt, dass viele Medikamente an Waisenkindern getestet wurden. Ein Skandal.
Sich für Tests in der Forschung zu entscheiden, setzt Mündigkeit voraus. 
Ich werde an der Uni-Klinik Erlangen behandelt und man wird bei schwerer Erkrankung immer gefragt, ob man an einem Forschungsprojekt teilnehmen möchte.

Liebe Grüße
Alma Marie

Antwort geändert am 11.07.2023 um 12:06 Uhr

 AlmaMarieSchneider meinte dazu am 11.07.23 um 12:09:
@Graeculus
Ja sicher, aber dafür gibt es Gesetze und Filter.
Natürlich kann man alles umgehen. Kontrollen erfolgen über Maschinen und letztendlich ihre Programmierer.

Liebe Grüße
Alma Marie

 FrankReich meinte dazu am 11.07.23 um 12:47:
Bezüglich des Vergleiches Geist/Software in obigem Text hatte ich eine mehrstündige Diskussion, in der mir ethische Mängel vorgeworfen wurden, mit der Begründung, dass ich dadurch an behinderte Menschen das gleiche Paradigma anlegen würde wie die Nazis es taten. 🤔

Ciao, Frank
Zur Zeit online:
keinVerlag.de auf Facebook keinVerlag.de auf Twitter keinVerlag.de auf Instagram