29.5.2018: Was sind eigentlich Algorithmen und wieso sind sie gut? Und wieso böse?

Ich bin ja der festen Meinung, dass man Unwisenheit und Verunsicherung am besten mit Information begegnet. Vor allem wenn es um Themen geht, bei denen irgendwie alle mitreden, man aber oft am zweiten halben Satz merkt, dass das Fachwissen um den technischen Teil des Themas eher beschränkt ist.

Ich mach also mal weiter mit der Information:

Algorithmus? — Nehmen Sie 2 Eier und 350g Mehl …
Zunächst einmal ist ein Algorithmus eine eindeutige Handlungsvorschrift, also eine Folge von Schritten zum Erreichen eines Ziels.
Beispiele für Algorithmen wären also auch Kochrezepte oder IKEA-Aufbau-Anleitungen. Na gut, bei zweiteren streitet man sich noch, ob die wirklich so eindeutig sind, aber das ist ein anderes Thema.
Das Ziel ist ein leckerer Marmorkuchen, der Algorithmus ist das Rezept.

In Algorithmen gibt es auch Entscheidungen, die getroffen werden müssen und die dann den weiteren Verlauf des Algorithmus beeinflussen.
„WENN der Teig noch klebt, DANN geben Sie mehr Mehl dazu“ zum Beispiel ist so eine Entscheidung.
Ich habe die Wörter „wenn“ und „dann“ mal groß geschrieben, weil sie gefühlt ca 90% des Programmierens ausmachen und auch hier noch öfter auftauchen werden.

Wenn wir kurz überlegen, was ein Computer so tut, dann ist klar, dass er eigentlich aus einer riesigen Sammlung unterschiedlicher Algorithmen bestehen muss:
So gibt es einen Algorithmus, um alle markierten Zeichen eines Word-Dokuments fett darzustellen und einen, der den Lüfter des Computers anstellt, wenn der Temperatursensor eine bestimmte Temperatur meldet. Und der vielleicht später den Rechner herunterfährt, wenn die Temperatur weiter ansteigt. Und tausende weitere.

Und was ist daran schlimm?
Wie immer: Erst einmal nichts.

Aber: Algorithmen müssen von Menschen festgelegt werden. So lange es um so einfache Abfolgen geht wie diese ist das überschaubar:
– WENN die Temperatur über 41° steigt, DANN mach den Lüfter an
– WENN die Temperatur unter 35° sinkt, DANN mach den Lüfter wieder aus
ODER
– WENN die Temperatur über 60° steigt, DANN fahr den Rechner herunter

Algorithmen rund um das Verhalten von Menschen
Aber: Nehmen wir mal an, jemand hat ein soziales Netzwerk erfunden. Er ist damit ziemlich erfolgreich und deswegen sind da sehr viele Menschen. Weil er nicht von diesen Menschen lebt, sondern davon, möglichst viel Werbung zu verkaufen, möchte er, dass die Menschen viel Zeit in dem sozialen Netzwerk verbringen. Je mehr Zeit sie da verbringen, desto mehr Werbung kann er ihnen zeigen — logisch.
Also zeigt er ihnen möglichst viele Artikel, die die Menschen gerne lesen, denn wer etwas gerade gern tut, der wird damit weiter machen.

Um herauszufinden, welche Artikel die Menschen mögen könnte er sie fragen.
Fragt man Menschen aber nach so etwas, dann lügen sie meist. Die meisten würden zum Beispiel immer behaupten, dass sie wissenschaftliche Abhandlungen, ernste Literatur und das Fernsehprogramm von arte gerne ansehen — denn das sind gesellschaftlich anerkannte Werte. Sitzen sie dann alleine am Rechner, dann gucken sie doch wieder nur Videos, in denen der fette Nachbarskater vom Schrank fällt oder die Frauentausch-Kandidatin was von Erdbeerwurst schwafelt.

Also schreibt unser Netzwerk-Besitzer einen Algorithmus. Der misst, was die Menschen lange ansehen, wo sie auf den berühmten blauen Daumen klicken und was sie gerne selbst weiter teilen. Dabei kommt erst einmal in etwa so etwas raus:
– WENN der Benutzer ein Katzenvideo liked, DANN zeige ihm mehr Katzenvideos
– WENN der Benutzer über das Rilke-Gedicht schnell weg-scrollt, DANN zeige ihm weniger Rilke-Gedichte
– usw …

Außerdem teilt er die Artikel in seinem Netzwerk in Kategorien ein und bezieht diese Kategorien mit in die Regeln ein:
– WENN der Benutzer ein Katzenvideo liked, DANN zeige ihm mehr allgemeine Tiervideos
– WENN der Benutzer über das Rilke-Gedicht schnell weg-scrollt, DANN zeige ihm weniger Lyrik allgemein.
Und schon bestimmt ein Algorithmus, was Ihr in Eurem Lieblings-Netzwerk so seht, wenn Ihr die Startseite aufruft.

So weit, so nachvollziehbar. Aber es gibt ein paar Dinge, die das Ganze kompliziert machen:

Beweggründe
Wir Menschen haben für unser Handeln unterschiedliche Gründe.
Ich könnte zum Beispiel insgesamt gänzlich uninteressiert an Baby-Ausstattung sein, im Speziellen aber sehr interessiert an dem einen Babymarkt, in dem meine Nachbarin arbeitet, weil ich die nämlich sehr heiß finde.
Oder ich möchte als strammer CSU-ler die örtliche Jugendgruppe der jungen Linken im Auge behalten, auch wenn es mich sonst gruselt, wenn ich so etwas lese.
In beiden Fällen sehe ich ständig Dinge in meinem News-Stream, die mich nicht interessieren; eben weil der Algorithmus beschlossen hat, dass mich Babymärkte bzw linke Jugendgruppen interessieren und nicht rafft, dass es nur um die heiße Besitzerin oder diese eine lokale Gruppe geht.

Fehlannahmen beim Programmieren
Gehen wir mal weg von den sozialen Netzwerken und stellen uns einen Algorithmus vor, der Flugbewegungen in und aus dem nahen Osten beobachtet und Alarm schlagen soll, wenn ein gläubiger Muslim regelmäßig von dort und nach dort pendelt. Wie erkennt man einen gläubigen Muslim? „Einfach“, denkt der Programmierer des Algorithmus, „der isst kein Schweinefleisch“.
Dass die Fluggesellschaft Muster-Air aber nur eine Auswahl zwischen „könnte Schwein enthalten“ oder „vegetarisch“ bietet, weiß er beim Programmieren nicht.
Die mitfliegenden Muslims haben also vegetarisches Essen bestellt und Herr Mustermann, angestellt bei der „Röhren-und-Rohre GmbH & Co KG“ und verantwortlich für „den tollen Deal mit den Saudis“ ist sehr erstaunt, dass er in einer Gefährder-Kartei auftaucht. Warum? Na, weil er Vegetarier ist und regelmäßig die Baustelle besucht, zu der seine Firma die Rohre liefert.

Selbstlernende Algorithmen
Richtig kompliziert wird es, wenn die Algorithmen sich selbst ändern können. Nochmal zurück zu unserem sozialen Netzwerk:
– WENN der Benutzer ein Katzenvideo liked UND über das Hundevideo weg-scrollt, dann erstelle die beiden neuen Kategorien „Hundevideos“ und „Katzenvideos“ und zeige dem Benutzer nur noch Filme aus den „Katzenvideos“.

Natürlich bekomme ich als Katzenfan und Hunde-Ignorant dann deutlich mehr passende Inhalte angezeigt. Die Dinge, die ich zu sehen bekomme werden vordergründig immer und immer genauer auf mich zugeschnitten. Klar. Aber :
– sie werden auch langweilig (dann ist noch alles gut)
– sie lassen mich glauben, die ganze Welt wäre so, wie ich es mag (nicht so gut)

Läuft so ein selbstlernender Algorithmus erstmal ein paar Jahre, dann hat niemand mehr eine Ahnung, was sich inzwischen so alles an Regeln gebildet hat. Und auch nicht, wie sinnvoll die Regeln eigentlich noch sind.

Erst einmal ist das vielleicht auch nicht schlimm. Wird mir als Benutzer langweilig, dann kann ich mich ja noch selbst um etwas anderes kümmern. Vielleicht doch mal gucken, was Hunde oder Hamster oder Sittiche so machen.

Merke ich allerdings nicht, wie mein soziales Netzwerk meine Welt immer kleiner macht, dann wird’s eng. Denn irgendwann besteht die Gefahr, dass ich den kleinen Ausschnitt, den mir ein Computerprogramm zeigt, für die Welt halte. Und alles andere, was ja auch in meinem Blickfeld nur selten oder nie auftaucht für anders, fremd oder sogar gefährlich.
Irgendwann befinden sich in meiner Timeline dann nur noch Menschen, die Katzenvideos posten oder sich über Katzenvideos unterhalten oder Hundevideos nicht wollen.

Und wenn ich gar nicht merke wie fremdbestimmt und gleichzeitig weltfremd das ist, dann gründe ich eine facebook-Gruppe, um noch mehr nur noch mit diesen Gleichgesinnten zusammen zu sein und nenne sie
„Hunde? Ekelige Ganzköperbehaarte im deutschen Alltag“,
kurz HEGIDA.
Und wenn wir uns dann in dieser Gruppe lange genug gegenseitig befeuert und bestärkt haben, dass nur Katzen supi sind und Hunde ekelig und dass die weg müssen, dann sehen wir irgendwann überhaupt keine Realität mehr und gehen vielleicht sogar auf die Strasse.

Das wäre dann wirklich eine schlimme Folge eines an sich erst einmal harmlos gedachten kleinen Algorithmus.

Eine andere schlimme Folge ist, wenn Menschen dem Computer bedingungslos vertrauen, ohne zu wissen, was dieser tolle Algorithmus für Regeln hatte oder sich selbst inzwischen noch an neuen Regeln selbst gemacht hat.
Es gibt zum Beispiel eine Untersuchung, in der ein Computer mit Gesichtserkennung kriminelle und nicht-kriminelle Menschen verglichen hat. Nach vielen, vielen Fotos, die man dem Computer gezeigt hatte, meinten die Forscher sagen zu können, dass der Computer jetzt an Hand der Gesichtserkennung bestimmen könne, wer kriminell ist.
Ein Traum! Oder?

Es stellte sich dann heraus, dass die Kriminellen, die man dem Computer gezeigt hatte alle das gleiche T-Shirt trugen. Weil sie alle in dem gleichen Gefängnis mit der gleichen Anstaltskleidung saßen.
Und der eifrige Algorithmus, immer bestrebt neue Regeln zu entwickeln, hatte eine wirklich eindeutige Gemeinsamkeit entdeckt.
Hätte man dem Computer geglaubt und vielleicht begonnen, Menschen präventiv festzunehmen, das wäre natürlich etwas doof gewesen.
Diese Geschichte ist übrigens nur so lange lustig, wie man kein T-Shirt in der Farbe des betroffenen Gefängnisses trägt, aber das war jetzt vermutlich allen klar.

Halten wir fest: Algorithmen sind weder gut noch böse. Böse ist, wenn man nicht mehr weiß, was sie tun und wenn man ihnen blind glaubt.

Dieser Artikel wurde zuerst am 29.5.2018 veröffentlicht auf medium, als ich gerade kein Blog hatte. Aber diesen Artikel wollte ich gern behalten und habe ihn deswegen in ein Archiv alter Artikel aufgenommen.

Danke fürs Teilhaben und Dabei-sein. Wenn Sie wollen:
Hier können Sie mir ’ne Mark in die virtuelle Kaffeekasse werfen,
Oder – wenn Ihnen Geld zu unpersönlich ist – hier ist meine Wishlist. Sie finden dort formschöne und Freude-spendende Geschenke für wenige oder auch sehr viele Euro.

Die Website setzt 1 notwendiges Cookie. Ich nutze Matomo, um zu sehen, welche Artikel Sie interessieren. Matomo ist lokal installiert es werden keine Cookies gesetzt, so dass Sie dort vollkommen anonym bleiben. Externe Dienste werden erst auf Ihre Anforderung genutzt.