Suche
Close this search box.

Alles, was Sie zum Thema Künstliche Intelligenz wissen müssen.

Alles, was Sie zum Thema Künstliche Intelligenz wissen müssen.

Wenn die Euphorie gross ist, sollte man vorsichtig sein.
Zitat von Warren Buffett, CEO und Chairman, Berkshire Hathaway (Dezember 2019)

Künstliche Intelligenz kann inzwischen mehr als Fliessbandarbeit. Vorstellungsgespräche zum Beispiel.

Ob AI die erhofften Einsparungen bringt in Bereichen wie Personal, Materialverbrauch und Zeitersparniss ist unklar. Beispielsweise hat die Digitalisierung der öffentlichen Verwaltung im Kanton Zürich zu rund 4.5% mehr Vollzeitstellen geführt.

Sicherlich werden sich aber bei vermehrter AI Nutzung die Abläufe und Prozesse im Unternehmen ändern. Auch bessere Produkte oder schnellere medizinische Analysen kann uns die AI bringen. Doch überhöhte Erwartungen der Investoren an der Wall Street können auch enttäuscht werden.

Eine allgemeingültige Definition von KI gibt es nicht. Kurz und vereinfacht gesagt ist Künstliche Intelligenz die Eigenschaft eines IT-Systems, der menschlichen Kognition ähnliche Fähigkeiten zu zeigen. Es ist eine Technik, die autonom entscheidet und sich zudem autonom weiterentwickelt.

Die Pharmaindustrie gibt viel Geld für die Datensammlung aus. Einige Berater schätzen die weltweiten Ausgaben für AI im Gesundheitswesen für 2017 auf rund USD 1.5 Milliarden. Dieser Betrag steigt in 2020 auf ca. USD 6 Milliarden.

Auch die Ausgaben für Forschung und Entwicklung bis zur Markteinführung für ein Medikament haben sich drastisch erhöht. 2010 waren es noch ca. USD 1.188 Milliarden pro Medikament. Bis 2018 hat sich dieser Betrag fast verdoppelt auf USD 2.168 Milliarden. Kein Wunder versucht die Pharmaindustrie mit Hilfe von KI diese Kosten besser zu managen.

Bei falscher Fragestellung gibt es leider falsche oder sogar unsinnige Antworten. Zur Illustration, es ist einfach einen Algorithmus zu schreiben der uns aufzeigt, ob eine Person unter Grippesymptomen leidet. Aber welche Datenquellen zieht der Algorithmus für die Analyse heran? Ohne eine klare Antwort kann man kein aussagekräftiges Ergebnis bekommen.

Künstliche Intelligenz kann inzwischen mehr als Fliessbandarbeit. Vorstellungsgespräche zum Beispiel.

Ob AI die erhofften Einsparungen bringt in Bereichen wie Personal, Materialverbrauch und Zeitersparnisse ist unklar. Beispielsweise hat die Digitalisierung der öffentlichen Verwaltung im Kanton Zürich zu rund 4.5% mehr Vollzeitstellen geführt.

Sicherlich werden sich aber bei vermehrter AI Nutzung die Abläufe und Prozesse im Unternehmen ändern. Auch bessere Produkte oder schnellere medizinische Analysen kann uns die AI bringen. Doch überhöhte Erwartungen der Investoren an der Wall Street können auch enttäuscht werden.

Eine allgemeingültige Definition von KI gibt es nicht. Kurz und vereinfacht gesagt ist Künstliche Intelligenz die Eigenschaft eines IT-Systems, der menschlichen Kognition ähnliche Fähigkeiten zu zeigen. Es ist eine Technik, die autonom entscheidet und sich zudem autonom weiterentwickelt.

Die Pharmaindustrie gibt viel Geld für die Datensammlung aus. Einige Berater schätzen die weltweiten Ausgaben für AI im Gesundheitswesen für 2017 auf rund USD 1.5 Milliarden. Dieser Betrag steigt in 2020 auf ca. USD 6 Milliarden.

Auch die Ausgaben für Forschung und Entwicklung bis zur Markteinführung für ein Medikament haben sich drastisch erhöht. 2010 waren es noch ca. USD 1.188 Milliarden pro Medikament. Bis 2018 hat sich dieser Betrag fast verdoppelt auf USD 2.168 Milliarden. Kein Wunder versucht die Pharmaindustrie mit Hilfe von KI diese Kosten besser zu managen.

Bei falscher Fragestellung gibt es leider falsche oder sogar unsinnige Antworten. Zur Illustration, es ist einfach einen Algorithmus zu schreiben der uns aufzeigt, ob eine Person unter Grippesymptomen leidet. Aber welche Datenquellen zieht der Algorithmus für die Analyse heran? Ohne eine klare Antwort kann man kein aussagekräftiges Ergebnis bekommen.

KI muss für die Menschheit wirklich vorteilhaft sein und darf den Menschen nicht in einem kalten Kalkül der Effizienz untergraben. Fachleute auf der ganzen Welt setzen sich mit den ethischen, ökonomischen, politischen und regulatorischen Implikationen der KI auseinander.

Ist unser Recht auf Sicherheit vergleichbar mit dem Recht auf Datenschutz? Das Recht auf ein Auto mit Sicherheitsgurt kann ein Autokäufer nicht aufgeben. Wir sollten nicht zulassen, dass unser Recht auf Privatsphäre für einen kostenlosen Service aufgegeben werden kann.

Gut vorbereitet auf die künstliche Intelligenz der Zukunft bedingt, dass KI-Systeme sich nicht als Blackbox präsentieren und ihre innere Funktionsweise nachvollziehbar wird.

Artificial Intelligence Basics

Strategie: Digitalisierung und Künstliche Intelligenz

2020-02-19 (Mi) hat Ursula von der Leyen eine digitale Strategie vorgestellt, wie die EU-Kommission die digitale Zukunft Europas prägen will.  Hier eine Übersicht zum AI Weissbuch und Datenstrategie von der EU

Weissbuch zum Umgang mit künstlicher intelligenz (KI)

Das Weissbuch wird von der dänischen Wettbewerbskommisarin Margrethe Vestager verantwortet. Danach haben „hochriskante“ KI-Systeme künftig in der EU gewisse Kriterien zu erfüllen.  Beispielsweise müssen Unternehmen sicherstellen, dass Algorithmen nicht mit verfälschten Daten trainieren. Also ein Computer soll nicht Männer bevorzugen, nur weil diese in der Vergangenheit bevorzugt wurden oder bei der Arbeit weniger abwesend sind (z.B. wegen Schwangerschaft/Geburt).

Ebenfalls müssen Firmen dokumentieren, wie der Algorithmus programmiert, trainiert und mit welchen Datensätzen dieser gefüttert wurde.  Interagiert ein Bürger mit einem KI-System, ist er davon in Kenntnis zu setzen.

Zur Zeit muss noch festgelegt werden, was „hochriskante“ KI2 oder AI-Anwendungen sind. Es muss sich gleichzeitig um einen riskanten Sektor und riskante Tätigkeit handeln.

PS. Im April 2019 hat die EU-Kommission ihre Ethik-Leitlinien für eine vertrauenswürdige KI veröffentlicht. Hier gibt es das  Weissbuch zum Umgang mit künstlicher intelligenz (KI)

Datenstrategie – „fit fürs digitale Zeitalter“

Der französische Binnenmarktkommissar Thierry Breton will einen Binnenmarkt für Daten schaffen. Die europäische Datenstrategie soll laut Kommission sicherstellen, dass Europa sich als eine Datenmacht jenseits von den USA und China etablieren kann.

Die Idee ist dabei, dass viele Akteuere auf alle möglichen nichtpersonalisierten Daten zugreifen können. Das soll zwischen den EU Mitgliedstaaten wie auch zwischen verschiedenen Wirtschaftssektoren möglich sein. Dabei denkt die Kommission, dass Europa bei personalisierten Daten auf verlorenem Posten steht. Doch bei den industriellen Daten kann Europa mit der optimalen Regulierung ein wichtiges Wörtchen mitreden.

Die Kommission will auch in Leuchtturmprojekte für europäische Rechenzentren und gemeinsame Cloud-Infrastrukturen investieren. Die von der Deutschen Bundesregierung lancierte Cloud-Allianz Gaia X bezeichnete Binnenmarktkommissar Thierry Breton hier als guten Ansatzpunkt für eine offene, sichere Plattformlösung, der auf europäischer Ebene mit weiteren Initiativen etwa aus Frankreich zusammengeführt werden solle. „Wir wollen keine Plattformen mit Gatekeeper-Funktion auf dem Binnenmarkt.“

Nobellpreisträger

1979 wies der Nobellpreisträger Wassily Leontief auf das Schicksal des Pferdes hin. Pferde waren lange Zeit von entscheidender wirtschaftlicher Bedeutung, aber in der zweiten Hälfte des 20. Jahrhunderts liess das Aufkommen des Verbrennungsmotors als dominierende Quelle die Pferdestärken verblassen.

Pferde haben immer noch eine Nische, aber sie werden niemals die Motoren übertrumpfen, egal wie billig Hafer wird. Werden viele menschliche Arbeiter den Weg des Pferdes gehen?

Maschinen machen rasche Fortschritte bei der Übersetzung, der Spracherkennung und der Klassifizierung von Krankheiten wie Hautkrebs (aus Bildern von Muttermalen), Brustkrebs (aus Bildern von Mammographien) und Diabetes (aus Bildern von Netzhäuten).

Aufgabe für Aufgabe überholen uns die Computer. Bei der Herausforderung „Visual Question Answering“, die CloudCV lanciert, erreichen Menschen 81 Prozent. Noch im Jahr 2016 lagen die Maschinen bei 55 Prozent, im Sommer 2019 bei 75 Prozent. Es ist nur eine Frage der Zeit, bis sie einen besseren Job machen als wir – genau wie AlphaZero.

AI ist z.B. als Roboter besser als der Mensch, weil es um repetitive Aufgaben geht, bei welchen Ausdauer und Präzision sehr wichtig sind.

KI wird auch eingesetzt, um in grossen Datenmengen Muster zu erkennen, die Daten einzuordnen und Vorhersagen zu treffen. Auch hier ist AI besser als der Mensch.

Wichtig ist, dass wir uns bewusst sind, dass Maschinen bessere Arbeit leisten können auch wenn diese nur in 80 Prozent der Fälle richtig liegen. Der Mensch liegt bei gleichen Tätigkeiten zu nur 60 Prozent richtig.

Die Grenzen der KI-Systeme liegen dort, wo es um den direkten Umgang mit Menschen geht. AI besitzt derzeit weder Emotionen noch Empathie oder soziale Intelligenz.

Die meisten heute genutzten KI-Programme können wir unter Machine Learning einordnen. Dies ist ein Oberbegriff, der eine Klasse von lernenden Algorithmen bezeichnet, die aus „Erfahrung“ lernen können.  Kurz gesagt, Machine Learning beinhaltet eine Sammlung von mathematischen Methoden der Mustererkennung in Daten, Fotos, usw.

Ähnlich wie wir Menschen, können Maschinen auf diese Weise aus einer grossen Anzahl von Beispielen oder Fällen lernen. Nach einer Lernphase können diese Erkenntnisse auf reale Fälle angewandt werden. Für den Lerprozess nutzt das Programm eine grosse Menge von Daten, um  zu lernen und Rückschlüsse zu ziehen, um Entscheidungen zu treffen. Ein wichtiger Einsatzbereich für Machine-Learning-Algorithmen ist beispielsweise die Erkennung von Kreditkartenbetrug. Bei einem meiner Freunde hat es z.B. nach dem Einkauf von Schmuck für seine Frau die Karte gesperrt, weil der Freund noch nie vorher mit dieser Kreditkarte Schmuck eingekauft hatte.

Weitere Beispiele sind unser Emailprogramm, welches weiss, ob eine Mail als Spam eingeordnet werden soll. Weiter kann ein solches Programm mir auch bei der Beantwortung von Emails helfen. Basierend auf vielen ähnlichen Emails offeriert mir z.B. Gmail eine Kurzantwort an den Sender. Diese kann ich auswählen und schicken oder aber auch noch mit Zusatzinformationen ergänzen.

Künstliche neuronale Netze sind ein Spezialbereich des maschinellen Lernens, der sogar einen eigenen Trendbegriff hat: Deep Learning.

Es gibt zwei Arten von Lernalgorithmen (eine dritte Art funktioniert nicht sehr gut – Reinforcement Learning).

  1. Beaufsichtigtes Training: Hier zeigen wir dem Netzwerk einen Eingangsvektor und teilen ihm das gewünschte Ergebnis, wobei wir die Gewichte so lange anpassen, bis wir das Ziel erreichen (d.h. die Diskrepanz zwischen dem korrekten Ausgang und dem tatsächlichen Ausgang verringern). Natürlich müssen wir wissen, was der Output sein soll.
  2. Unbeaufsichtigtes Training: Bei dem Sie einige Daten nehmen und versuchen, diese Daten in den verborgenen Schichten so darzustellen, dass wir die Daten oder einen Teil dieser Daten rekonstruieren können.

Unbeaufsichtigtes Training funktioniert durch Rückpropagierung um ein Vielfaches schneller. Statt ein Gewicht zu verketten und zu messen, welche Auswirkung das auf die Leistung des Netzwerkes hat, nutzen wir hier die Tatsache, dass alle Gewichte des Netzwerkes innerhalb des Computers liegen. Diese Tatsache nutzt man, um zu berechnen, wie sich eine Gewichtsänderung auf die Leistung auswirkt. Wir machen das für alle Gewichte parallel und sehen, welche Auswirkung dies auf die Leistung hat.

Unbeaufsichtigtes Training ist effizienter als es für ein Gewicht nach dem andern zu einem bestimmten Zeitpunkt zu tun. Anstatt kalkulieren wir diese Änderungen und deren Auswirkungen simultan im unbeaufsichtigtem Training um festzustellen, welche Auswirkungen dies auf den Output hat.

Um sicher zu stellen, das AI oder KI Anwendungen die Bestimmungen in der Datenschutzgrundverordnung (DSGVO) einhalten, müssen Sicherheitsvorgehrungen getroffen werden.

Die Nutzer oder Konsumenten müssen darüber informiert werden, welche Daten verarbeitet werden. Auch gilt es sicher zu stellen, dass diese Daten gut geschützt sind. Anbieter von KI-Services könnten beispielsweise darauf achten, dass die Daten ihrer Nutzer nur in anonymisierter Form und verschlüsselt auf in-house Server oder aber auch in die Cloud hochgeladen werden.

AI für Experten

Algorithmus kann als eine Reihe von Schritten definiert werden, die befolgt werden, um ein mathematisches Problem zu lösen oder einen Computerprozess abzuschließen. In der Welt der Computer ist ein Algorithmus ein Satz von Anweisungen, der nicht nur definiert, was getan werden muss, sondern auch wie es zu tun ist.

2019-07 hat die Europäische Kommission ein Kartellverfahren gegen Amazon eingeleitet. Aber 2 Jahre später kämpfen die EU-Beamten immer noch damit, zu verstehen, wie Amazons Algorithmus funktioniert. Und das, obwohl sie dem Unternehmen eine Reihe von detaillierten Fragen zu den Kriterien geschickt haben, nach denen die Sichtbarkeit eines Produkts erhöht wird.
Die EU-Behörden beschuldigten den Online-Händler, seinen Algorithmus zu manipulieren, um seine eigenen Produkte „künstlich“ gegenüber denen der Konkurrenz aufzuwerten. Infolgedessen, so der Vorwurf, würden die Nutzer oft Produkte von geringerer Qualität zu

Kartellrechtler sehen sich häufig mit Hürden konfrontiert, wenn sie in den „Black Boxes“ des Codes von Technologieunternehmen navigieren. Fälle, die Algorithmen betreffen, sind komplex. Eine Aufsichtsbehörde muss nicht vorschreiben, wie ein Computercode funktioniert. Es ist Sache des Unternehmens, das den Algorithmus verwendet, ein faires und unvoreingenommenes („unbiased“ oder „non-biased“) Ergebnis zu liefern.

Wenn die Wettbewerbshüter dann einmal den Algorithmus verstehen, kann es zu Sanktionen kommen.

Am 2021-06-07 wurde in Frankreich gegen Google eine Geldstrafe von €220 Mio. verhängt. Grund war  Missbrauch der „dominanten“ Anzeigenposition im Online-Werbemarkt.

Isabelle de Silva, Vorsitzende der französischen Wettbewerbsbehörde, wird in der Pressemitteilung wie folgt zitiert

„Die Entscheidung, mit der Google sanktioniert wird, ist besonders bedeutsam, weil es sich um die weltweit erste Entscheidung handelt, die die komplexen algorithmischen Gebotsprozesse untersucht, nach denen Online-Display-Werbung funktioniert.“

(siehe weiter unten Rolle der Rechtsprechung).

Viele Forscher im AI Bereich finden, dass die Herausforderung der AI ist, die Prozesse transparent zu machen. Das ist insbesonders bei künstlichen neuronalen Netzen schwierig. Diese nutzen die mathematische Simulation von einer Anzahl von nachempfundenen und vereinfachten Neuronen, die in Schichten miteinander verbunden sind.

Erst vor kurzem ist es möglich geworden, durch verbesserte Rechenleistung, neuartige Algorithmen und grosse Mengen vorhandener Daten, neuronale Netze  zu nutzen. Beispielsweise für bestimmte Aufgaben wie das Klassifizieren von Bildern oder um das Übersetzen von Texten zu trainieren.

Die Nachvollziebarkeit dieser Arbeit ist schwierig, weil sich während des Trainings die Gewichtungen der Verbindungen zwischen den Neuronen verändern (siehe Kurzbeschrieb weiter oben auf der Seite). Der Blackbox Charakter der Netze rührt daher, dass man heute nicht in der Lage ist nachzuvollziehen, was die Netze dabei eigentlich wirklich lernen (vgl. das menschliche Gehirn).

Bei Neuronalen Netzen wird nur die Eingabe und gewünschte Ausgabe vorgegeben. Alles Weitere erledigen die System „end-to-end“ selbst. Am Ende steht ein auf die zu lösende Aufgabe optimiertes Netz mit den dafür erforderlichen gewichteten Verbindungen zwischen den Neuronen – eine Interpretation des Gelernten ist so nicht mehr möglich.

Um dieser Herausforderung bei der Nachvollziehbarkeit zu meistern wird zur Zeit geforscht. Die Funktionsweise von Bilderkennungsverfahren transparenter zu machen besteht z.B. darin, Bildelemente hervorzuheben, die zu einer bestimmten Klassifizierung geführt haben.

Beispielsweise kann die KI bestimmte Bildbereiche einfärben um dabei deutlich zu machen, dass primär Bilder, die eine Leine enthalten, zur Klassifizierung „Hund“ geführt haben. Mit dieser Hilfestellung kann der Mensch nachvollziehen, wieso ein Bild als Bild mit Hund klassifiziert wurde.

Dies ist bei der Klassifizierung von Hunden und Katzen relativ einfach. Es kann aber sehr kompliziert werden. In anderen Fällen ist es schwierig aufzuzeigen, welche Faktoren zu welchen Entscheidungen geführt haben. Die Nachvollziehbarkeit oder das kritische Hinterfragen ist dann kaum möglich.

Die DSGVO beansprucht eine sogenannte extra-territoriale Wirkung, d.h. sie kann auch für Schweizer Unternehmen Anwendung finden. Diesen neuen Massstäben kann der verantwortliche Regulator mit hohen Bussen Nachdruck verleihen.

Warum Datenqualität für AI wichtig ist

Wenn ein Unternehmen von seinen Kunden Daten sammelt, muss die Stichprobe die breite Palette der Kunden sehr gut repräsentieren. Das heisst gemäss Geschlecht, Altersgruppe, Land, Einkommensgruppe, usw. müssen die gesammelten Daten diejenigen der wirklichen Kunden genau widerspiegeln.

Man kann Datenqualität aber auch etwas formaler beschreiben. Grundsätzlich spielen sicherlich 4 Faktoren eine wichtige Rolle, ob unsere Big Data Sammlung von guter Qaulität ist oder eben nicht:

  • Richtigkeit (Veracity) der Daten.
    Sind die Daten für das Problem oder die gestellten Fragen angemessen?
  • Zuverlässigkeit (Reliability) der Daten.
    Inwiefern kommen z.B. 2 Personen zur gleichen Beurteilung eines Mitarbeiters oder eines Hotels?
  • Gültigkeit (Validität) der Daten.
    Sind die Daten valide und messen diese das, was sie messen sollen, mit hoher Qualität?
  • Beständigkeit (Volatilität) der Daten.
    Wie lange sind die Daten noch aktuell bei einer Voraussage einer Grippenepidemie, eines Verkehrsstaus oder Vulkanausbruches?

Leider ist aber Big Data typischerweise von den folgenden Charakteristiken gekennzeichnet:

  • observational,
  • ohne Kontroll-Daten,
  • scheinbar vollständig,
  • aus dritter Hand und oft
  • zusammengemischt.

Wir müssen die Datenerfassung verstehen, d.h. es muss uns klar sein, wie diese vorgenommen wurde bevor wir den Resultaten vertrauen können. Beispielsweise, was ist die Verteilung der Geschlechter, Altersgruppen, Einkommen usw. der erhaltenen Fragebögen mit Kundenevaluationen? Erlauben die Antworten Rückschlüsse auf alle Gäste oder nur auf bestimmte Gruppen? Oder basieren unsere Rückschlüsse auf schlechten Daten, was die gesamten Ergebnisse in Frage stellt?

Qualität geht hier klar vor Quantität. Analysen mit Big Data können z.B. im Gesundheitswesen kontrollierte klinische Studien ergänzen, aber nicht ersetzen.

Face Recognition Software nutzt Machine Learning, um die Bilder oder Datenpixel zu analysieren, die dank Videokameras im Stadtzentrum oder im Warenhaus geliefert werden.

  • USD 9 Mia. hoch wird der Markt für Gesichtserkennungssoftware für das Jahr 2022 geschätzt.
  • 20% ist die jährliche Wachstumsrate dieses Marktes.
  • 1,700 Studenten an der University of Colorado wurden vom Februar 2012 bis September 2013 an 20 verschiedenen Tagen fotografiert, um die Gesichtserkennungssoftware zu verbessern.
  • 37,000 Fotos von Flickr-Alben wurden genutzt, um die Facebook „People in Photo Albums“ Software zu entwickeln.

Für 2022 wird der Wert des Marktes für Gesichtserkennungssoftware auf USD 9 Milliarden geschätzt. Er wächst jährlich um 20%.

Bei Gesichtserkennungssoftware werden die Resultate immer besser. Beispielsweise mit einer Fehlerrate von 0,8 Prozent für Männer mit heller Haut. Diese geht allerdings noch rapide runter auf 34,7 Prozent für dunkelhäutige Frauen (Buolamwini & Gebru, 2018-02).

AI BASICS für Anfänger

Strategie: Digitalisierung und Künstliche Intelligenz

2020-02-19 (Mi) hat Ursula von der Leyen eine digitale Strategie vorgestellt, wie die EU-Kommission die digitale Zukunft Europas prägen will.  Hier eine Übersicht zum AI Weissbuch und Datenstrategie von der EU

Weissbuch zum Umgang mit künstlicher intelligenz (KI)

Das Weissbuch wird von der dänischen Wettbewerbskommisarin Margrethe Vestager verantwortet. Danach haben „hochriskante“ KI-Systeme künftig in der EU gewisse Kriterien zu erfüllen.  Beispielsweise müssen Unternehmen sicherstellen, dass Algorithmen nicht mit verfälschten Daten trainieren. Also ein Computer soll nicht Männer bevorzugen, nur weil diese in der Vergangenheit bevorzugt wurden oder bei der Arbeit weniger abwesend sind (z.B. wegen Schwangerschaft/Geburt).

Ebenfalls müssen Firmen dokumentieren, wie der Algorithmus programmiert, trainiert und mit welchen Datensätzen dieser gefüttert wurde.  Interagiert ein Bürger mit einem KI-System, ist er davon in Kenntnis zu setzen.

Zur Zeit muss noch festgelegt werden, was „hochriskante“ KI2 oder AI-Anwendungen sind. Es muss sich gleichzeitig um einen riskanten Sektor und riskante Tätigkeit handeln.

PS. Im April 2019 hat die EU-Kommission ihre Ethik-Leitlinien für eine vertrauenswürdige KI veröffentlicht. Hier gibt es das  Weissbuch zum Umgang mit künstlicher intelligenz (KI)

Datenstrategie – „fit fürs digitale Zeitalter“

Der französische Binnenmarktkommissar Thierry Breton will einen Binnenmarkt für Daten schaffen. Die europäische Datenstrategie soll laut Kommission sicherstellen, dass Europa sich als eine Datenmacht jenseits von den USA und China etablieren kann.

Die Idee ist dabei, dass viele Akteuere auf alle möglichen nichtpersonalisierten Daten zugreifen können. Das soll zwischen den EU Mitgliedstaaten wie auch zwischen verschiedenen Wirtschaftssektoren möglich sein. Dabei denkt die Kommission, dass Europa bei personalisierten Daten auf verlorenem Posten steht. Doch bei den industriellen Daten kann Europa mit der optimalen Regulierung ein wichtiges Wörtchen mitreden.

Die Kommission will auch in Leuchtturmprojekte für europäische Rechenzentren und gemeinsame Cloud-Infrastrukturen investieren. Die von der Deutschen Bundesregierung lancierte Cloud-Allianz Gaia X bezeichnete Binnenmarktkommissar Thierry Breton hier als guten Ansatzpunkt für eine offene, sichere Plattformlösung, der auf europäischer Ebene mit weiteren Initiativen etwa aus Frankreich zusammengeführt werden solle. „Wir wollen keine Plattformen mit Gatekeeper-Funktion auf dem Binnenmarkt.“

Nobellpreisträger

1979 wies der Nobellpreisträger Wassily Leontief auf das Schicksal des Pferdes hin. Pferde waren lange Zeit von entscheidender wirtschaftlicher Bedeutung, aber in der zweiten Hälfte des 20. Jahrhunderts liess das Aufkommen des Verbrennungsmotors als dominierende Quelle die Pferdestärken verblassen.

Pferde haben immer noch eine Nische, aber sie werden niemals die Motoren übertrumpfen, egal wie billig Hafer wird. Werden viele menschliche Arbeiter den Weg des Pferdes gehen?

Maschinen machen rasche Fortschritte bei der Übersetzung, der Spracherkennung und der Klassifizierung von Krankheiten wie Hautkrebs (aus Bildern von Muttermalen), Brustkrebs (aus Bildern von Mammographien) und Diabetes (aus Bildern von Netzhäuten).

Aufgabe für Aufgabe überholen uns die Computer. Bei der Herausforderung „Visual Question Answering“, die CloudCV lanciert, erreichen Menschen 81 Prozent. Noch im Jahr 2016 lagen die Maschinen bei 55 Prozent, im Sommer 2019 bei 75 Prozent. Es ist nur eine Frage der Zeit, bis sie einen besseren Job machen als wir – genau wie AlphaZero.

AI ist z.B. als Roboter besser als der Mensch, weil es um repetitive Aufgaben geht, bei welchen Ausdauer und Präzision sehr wichtig sind.

KI wird auch eingesetzt, um in grossen Datenmengen Muster zu erkennen, die Daten einzuordnen und Vorhersagen zu treffen. Auch hier ist AI besser als der Mensch.

Wichtig ist, dass wir uns bewusst sind, dass Maschinen bessere Arbeit leisten können auch wenn diese nur in 80 Prozent der Fälle richtig liegen. Der Mensch liegt bei gleichen Tätigkeiten zu nur 60 Prozent richtig.

Die Grenzen der KI-Systeme liegen dort, wo es um den direkten Umgang mit Menschen geht. AI besitzt derzeit weder Emotionen noch Empathie oder soziale Intelligenz.

Die meisten heute genutzten KI-Programme können wir unter Machine Learning einordnen. Dies ist ein Oberbegriff, der eine Klasse von lernenden Algorithmen bezeichnet, die aus „Erfahrung“ lernen können.  Kurz gesagt, Machine Learning beinhaltet eine Sammlung von mathematischen Methoden der Mustererkennung in Daten, Fotos, usw.

Ähnlich wie wir Menschen, können Maschinen auf diese Weise aus einer grossen Anzahl von Beispielen oder Fällen lernen. Nach einer Lernphase können diese Erkenntnisse auf reale Fälle angewandt werden. Für den Lerprozess nutzt das Programm eine grosse Menge von Daten, um  zu lernen und Rückschlüsse zu ziehen, um Entscheidungen zu treffen. Ein wichtiger Einsatzbereich für Machine-Learning-Algorithmen ist beispielsweise die Erkennung von Kreditkartenbetrug. Bei einem meiner Freunde hat es z.B. nach dem Einkauf von Schmuck für seine Frau die Karte gesperrt, weil der Freund noch nie vorher mit dieser Kreditkarte Schmuck eingekauft hatte.

Weitere Beispiele sind unser Emailprogramm, welches weiss, ob eine Mail als Spam eingeordnet werden soll. Weiter kann ein solches Programm mir auch bei der Beantwortung von Emails helfen. Basierend auf vielen ähnlichen Emails offeriert mir z.B. Gmail eine Kurzantwort an den Sender. Diese kann ich auswählen und schicken oder aber auch noch mit Zusatzinformationen ergänzen.

Künstliche neuronale Netze sind ein Spezialbereich des maschinellen Lernens, der sogar einen eigenen Trendbegriff hat: Deep Learning. Es gibt zwei Arten von Lernalgorithmen (eine dritte Art funktioniert nicht sehr gut – Reinforcement Learning).
  1. Beaufsichtigtes Training: Hier zeigen wir dem Netzwerk einen Eingangsvektor und teilen ihm das gewünschte Ergebnis, wobei wir die Gewichte so lange anpassen, bis wir das Ziel erreichen (d.h. die Diskrepanz zwischen dem korrekten Ausgang und dem tatsächlichen Ausgang verringern). Natürlich müssen wir wissen, was der Output sein soll.
  2. Unbeaufsichtigtes Training: Bei dem Sie einige Daten nehmen und versuchen, diese Daten in den verborgenen Schichten so darzustellen, dass wir die Daten oder einen Teil dieser Daten rekonstruieren können.
Unbeaufsichtigtes Training funktioniert durch Rückpropagierung um ein Vielfaches schneller. Statt ein Gewicht zu verketten und zu messen, welche Auswirkung das auf die Leistung des Netzwerkes hat, nutzen wir hier die Tatsache, dass alle Gewichte des Netzwerkes innerhalb des Computers liegen. Diese Tatsache nutzt man, um zu berechnen, wie sich eine Gewichtsänderung auf die Leistung auswirkt. Wir machen das für alle Gewichte parallel und sehen, welche Auswirkung dies auf die Leistung hat. Unbeaufsichtigtes Training ist effizienter als es für ein Gewicht nach dem andern zu einem bestimmten Zeitpunkt zu tun. Anstatt kalkulieren wir diese Änderungen und deren Auswirkungen simultan im unbeaufsichtigtem Training um festzustellen, welche Auswirkungen dies auf den Output hat.

Um sicher zu stellen, das AI oder KI Anwendungen die Bestimmungen in der Datenschutzgrundverordnung (DSGVO) einhalten, müssen Sicherheitsvorgehrungen getroffen werden.

Die Nutzer oder Konsumenten müssen darüber informiert werden, welche Daten verarbeitet werden. Auch gilt es sicher zu stellen, dass diese Daten gut geschützt sind. Anbieter von KI-Services könnten beispielsweise darauf achten, dass die Daten ihrer Nutzer nur in anonymisierter Form und verschlüsselt auf in-house Server oder aber auch in die Cloud hochgeladen werden.

AI WISSEN für Experten

Guter Datenschutz ist Teil von einem exzellenten Kundenservice im B2C wie auch im B2B Geschäft.

Schon 2013 wurden im EU Parlament bei den Diskussionen zur Datenschutzgrundverordnung von den Parlamentariern folgende Daten zur Kenntnis genommen:

  • 74% der Europäer sehen es als unvermeidbar an, persönliche Daten preiszugeben.
  • 43% der Internetnutzer in der EU finden, sie müssen mehr Infos preisgeben als notwendig.
  • 75% der EU-Bevölkerung fordern das Recht, persönliche Daten zu jeder Zeit und von jedweder Webseite löschen zu können.

Die Brandenburgische Landeszentrale für politische Bildung hat auf Instagram folgende Definition für den Datenschutz gepostet:

Darunter wird allgemein der Schutz persönlicher Daten vor Missbrauch verstanden. Ziel ist es, das Grundrecht auf informationelle Selbstbestimmung sicherzustellen. (Ed.) Das heisst, jeder Mensch sollte entscheiden können, wenn er wann und wie welche Angaben preisgibt und wie diese Daten verwendet werden dürfen. Geregelt ist das alles in der Datenschutz-Grundverordnung und dem Bundesdatenschutzgesetz.

Mehr Informationen mit ein wenig zur Geschichte des Datenschutz als Recht wird vom BLPB hier angegeben.

Viele Forscher im AI Bereich finden, dass die Herausforderung der AI ist, die Prozesse transparent zu machen. Das ist insbesonders bei künstlichen neuronalen Netzen schwierig. Diese nutzen die mathematische Simulation von einer Anzahl von nachempfundenen und vereinfachten Neuronen, die in Schichten miteinander verbunden sind.

Erst vor kurzem ist es möglich geworden, durch verbesserte Rechenleistung, neuartige Algorithmen und grosse Mengen vorhandener Daten, neuronale Netze  zu nutzen. Beispielsweise für bestimmte Aufgaben wie das Klassifizieren von Bildern oder um das Übersetzen von Texten zu trainieren.

Die Nachvollziebarkeit dieser Arbeit ist schwierig, weil sich während des Trainings die Gewichtungen der Verbindungen zwischen den Neuronen verändern (siehe Kurzbeschrieb weiter oben auf der Seite). Der Blackbox Charakter der Netze rührt daher, dass man heute nicht in der Lage ist nachzuvollziehen, was die Netze dabei eigentlich wirklich lernen (vgl. das menschliche Gehirn).

Bei Neuronalen Netzen wird nur die Eingabe und gewünschte Ausgabe vorgegeben. Alles Weitere erledigen die System „end-to-end“ selbst. Am Ende steht ein auf die zu lösende Aufgabe optimiertes Netz mit den dafür erforderlichen gewichteten Verbindungen zwischen den Neuronen – eine Interpretation des Gelernten ist so nicht mehr möglich.

Um dieser Herausforderung bei der Nachvollziehbarkeit zu meistern wird zur Zeit geforscht. Die Funktionsweise von Bilderkennungsverfahren transparenter zu machen besteht z.B. darin, Bildelemente hervorzuheben, die zu einer bestimmten Klassifizierung geführt haben.

Beispielsweise kann die KI bestimmte Bildbereiche einfärben um dabei deutlich zu machen, dass primär Bilder, die eine Leine enthalten, zur Klassifizierung „Hund“ geführt haben. Mit dieser Hilfestellung kann der Mensch nachvollziehen, wieso ein Bild als Bild mit Hund klassifiziert wurde.

Dies ist bei der Klassifizierung von Hunden und Katzen relativ einfach. Es kann aber sehr kompliziert werden. In anderen Fällen ist es schwierig aufzuzeigen, welche Faktoren zu welchen Entscheidungen geführt haben. Die Nachvollziehbarkeit oder das kritische Hinterfragen ist dann kaum möglich.

Die DSGVO beansprucht eine sogenannte extra-territoriale Wirkung, d.h. sie kann auch für Schweizer Unternehmen Anwendung finden. Diesen neuen Massstäben kann der verantwortliche Regulator mit hohen Bussen Nachdruck verleihen.

Warum Datenqualität für AI wichtig ist

Wenn ein Unternehmen von seinen Kunden Daten sammelt, muss die Stichprobe die breite Palette der Kunden sehr gut repräsentieren. Das heisst gemäss Geschlecht, Altersgruppe, Land, Einkommensgruppe, usw. müssen die gesammelten Daten diejenigen der wirklichen Kunden genau widerspiegeln.

Man kann Datenqualität aber auch etwas formaler beschreiben. Grundsätzlich spielen sicherlich 4 Faktoren eine wichtige Rolle, ob unsere Big Data Sammlung von guter Qaulität ist oder eben nicht:

  • Richtigkeit (Veracity) der Daten.
    Sind die Daten für das Problem oder die gestellten Fragen angemessen?
  • Zuverlässigkeit (Reliability) der Daten.
    Inwiefern kommen z.B. 2 Personen zur gleichen Beurteilung eines Mitarbeiters oder eines Hotels?
  • Gültigkeit (Validität) der Daten.
    Sind die Daten valide und messen diese das, was sie messen sollen, mit hoher Qualität?
  • Beständigkeit (Volatilität) der Daten.
    Wie lange sind die Daten noch aktuell bei einer Voraussage einer Grippenepidemie, eines Verkehrsstaus oder Vulkanausbruches?

Leider ist aber Big Data typischerweise von den folgenden Charakteristiken gekennzeichnet:

  • observational,
  • ohne Kontroll-Daten,
  • scheinbar vollständig,
  • aus dritter Hand und oft
  • zusammengemischt.

Wir müssen die Datenerfassung verstehen, d.h. es muss uns klar sein, wie diese vorgenommen wurde bevor wir den Resultaten vertrauen können. Beispielsweise, was ist die Verteilung der Geschlechter, Altersgruppen, Einkommen usw. der erhaltenen Fragebögen mit Kundenevaluationen? Erlauben die Antworten Rückschlüsse auf alle Gäste oder nur auf bestimmte Gruppen? Oder basieren unsere Rückschlüsse auf schlechten Daten, was die gesamten Ergebnisse in Frage stellt?

Qualität geht hier klar vor Quantität. Analysen mit Big Data können z.B. im Gesundheitswesen kontrollierte klinische Studien ergänzen, aber nicht ersetzen.

Face Recognition Software nutzt Machine Learning, um die Bilder oder Datenpixel zu analysieren, die dank Videokameras im Stadtzentrum oder im Warenhaus geliefert werden.

  • USD 9 Mia. hoch wird der Markt für Gesichtserkennungssoftware für das Jahr 2022 geschätzt.
  • 20% ist die jährliche Wachstumsrate dieses Marktes.
  • 1,700 Studenten an der University of Colorado wurden vom Februar 2012 bis September 2013 an 20 verschiedenen Tagen fotografiert, um die Gesichtserkennungssoftware zu verbessern.
  • 37,000 Fotos von Flickr-Alben wurden genutzt, um die Facebook „People in Photo Albums“ Software zu entwickeln.

Für 2022 wird der Wert des Marktes für Gesichtserkennungssoftware auf USD 9 Milliarden geschätzt. Er wächst jährlich um 20%.

Bei Gesichtserkennungssoftware werden die Resultate immer besser. Beispielsweise mit einer Fehlerrate von 0,8 Prozent für Männer mit heller Haut. Diese geht allerdings noch rapide runter auf 34,7 Prozent für dunkelhäutige Frauen (Buolamwini & Gebru, 2018-02).

AI IM MARKETING

White Paper: Erfahren Sie mehr über wie Betriebe AI / KI optimal nutzen können. Lesen Sie über die Trends, Herausforderungen und Möglichkeiten von Künstlicher Intelligenz in Kombination mit Big Data, Internet of Thinks und der Ethik.

PS. Erhalt der Bestätigungsmail für den Download Link kann einige Minuten dauern.

AI IM MARKETING

White Paper: Erfahren Sie mehr darüber, wie Betriebe AI / KI optimal nutzen können. Lesen Sie über die Trends, Herausforderungen und Möglichkeiten von Künstlicher Intelligenz in Kombination mit Big Data, Internet of Thinks und der Ethik.

PS. Erhalt der Bestätigungsmail für den Download-Link kann einige Minuten dauern.

AI in der Praxis

Theorie und Daten

In einer Studie über die Ökonomie des technologischen Wandels machten Autor und Levy (2003) zwei wichtige Feststellungen:

  1. Es ist irreführend, von Robotern – oder jeder anderen Technologie – zu sprechen, die Arbeitsplätze wegnehmen. Stattdessen führen Maschinen nur Aufgaben aus im Sinne einer engeren Einheit von Arbeit. Da die meisten Jobs viele verschiedene Aufgaben beinhalten, nehmen Roboter keine Jobs weg, aber sie können sie radikal umgestalten. Ein Roboter-Buchhalter ist nicht Alpha-1; es ist Excel oder QuickBooks. Wie beim Pferd gibt es keinen Lohn, mit dem menschliche Taschenrechner mit einem Computer bei der Aufgabe, eine Tabelle zu addieren, konkurrieren können. Dennoch gibt es menschliche Buchhalter in grosser Zahl. Ihre Aufgaben sehen heute einfach ganz anders aus.
  2. Seien die Aufgaben, die Maschinen übernehmen, am besten nicht als „gelernt“ oder „ungelernt“ zu beschreiben, sondern als „routinemässig“ oder „nicht routinemässig“. Die Neuberechnung einer Tabellenkalkulation ist eine geübte, aber routinemäßige Aufgabe, die sich leicht automatisieren lässt. Das Aufräumen der Küche erfordert wenig Geschicklichkeit – selbst ich kann das – ist aber nicht routinemäßig und daher schwer zu automatisieren.

Situation heute

Laut Harford (2020) hat sich diese Art, die Welt zu betrachten, als sehr nützlich erwiesen. Sie erklärte, warum die Technologie unsere Arbeit stören kann, ohne sie zu zerstören. Und warum sich sowohl der niedrig- als auch der hochbezahlte Teil des Arbeitsmarkts als robust erwies, während die Mitte, vollgepackt mit handwerklichen Routineaufgaben, ausgehöhlt wurde.

AI kann Routineprozesse übernehmen. Auch ist es ihr möglich, anhand der Daten Entscheidungen zu treffen, beispielsweise bei einer sekundenschneller Analyse von Bildmaterial am Flughafen mit Fahndungslisten.

2018 hat Amazon ca 100’000 Personen für das Weihnachtsgeschäft rekrutiert. Das war 20’000 weniger als noch 2017. Grund war, dass in dieser Zeit die Automatisierung der Arbeit in den Lagerhallen von Amazon stark fortgeschritten ist. Amazon vermutet, dass diese Zahl weiter sinken wird.

KI wird Veränderungen in der Produktion und Administration für Organisationen wie NGOs, öffentliche Verwaltung und Unternehmen bringen.

Situation morgen

Susskind (2020) argumentiert, dass die Grenzen der „Routine“ schnell verschwimmen.

Nehmen wir zum Beispiel CloudCV, ein System, das offene Fragen zu Bildern beantwortet. Laden Sie ein Bild hoch und stellen Sie beliebige Fragen. Das System gibt genaue Antworten auf informell formulierte Fragen zu zufälligen Fotos. Ist diese Aufgabe Routine? Kaum.

Auch nicht die Leistung von AlphaZero, dem von DeepMind, einer Schwesterfirma von Google, entwickelten Spielalgorithmus. Im Jahr 2017 trainierte sich AlphaZero in wenigen Stunden an, die beste Schachspiel-Engine und das beste Go-Programm zu schlagen, die beide die besten Menschen leicht besiegten. Manche behaupten, diese Leistung sei weniger beeindruckend, als es zunächst den Anschein hat – aber vor 10 Jahren schien die blosse Vorstellung, dass ein Computer einen Menschen beim Go schlagen könnte, nicht plausibel. Was die Supercomputer von DeepMind heute leisten können, wird bis 2030 auf Laptops und Handys möglich sein.

PS: PwC schätzt, dass bis 2029, in den industrialisierten Ländern viele Jobs durch Automation und AI wegrationalisiert werden:

  1. 30% der Arbeitsplätze im Finanz- und Versicherungsbereich, sowie
  2. 50% der Bürostellen.

McKinsey schätzt, dass z.B. in der Schweiz bis 2030 rund 1 Mio. Arbeitsplätze durch AI und neue Technologien ersetzt werden. Doch rund 800,000 neue Position wie Algorithmen-Auditor werden gleichzeitig entstehen.

Die Maschinen machen rasche Fortschritte bei der Übersetzung, der Spracherkennung und der Klassifizierung von Krankheiten wie Hautkrebs (aus Bildern von Muttermalen), Brustkrebs (aus Bildern von Mammographien) und Diabetes (aus Bildern von Netzhäuten).

Hier eine laufend aktualisierte Liste mit Podcasts und Videos im Blockchain Bereich. Neue Podcasts werden nachfolgend – nach Erhalt von den Angaben – von uns aufgeführt:

Podcasts

  •  

Videos

Wenn Sie einen Podcast hier aufgelistet sehen möchten, kontaktieren Sie uns mit den Details, wir nehmen den Podcast oder das Video gerne hier in die Liste auf.

1:56 Warum neuronale Netzwerke wichtig sind – künstliche neuronale Netzwerke, ein Ansatz, der Computern beibringt, menschliche Intelligenz zu imitieren/mimiken.

AI und Prävention / Frühdiagnose

Etwa 33 Millionen Screening-Mammographien werden jedes Jahr in den USA durchgeführt. Laut der American Cancer Society werden aber etwa 20 Prozent der Brustkrebsfälle übersehen, d.h. 1 in 5 Fällen.

Mehr als die Hälfte der Frauen erhalten ein falsch positive Diagnose, was dazu führt, dass sie für weitere Tests, manchmal sogar für Biopsien, zurückgerufen werden.

Nun haben neue Forschungsresultate (2020-01 – Zusammenfassung) herausgefunden, dass die künstliche Intelligenz den Ärzten helfen kann, Brustkrebs in der Mammographie besser zu erkennen. AI hilft dabei, falsch positive Ergebnisse zu reduzieren – wo Patienten fälschlicherweise gesagt wird, dass sie Krebs haben – und falsch negative Ergebnisse – wo die Krankheit vorhanden ist aber nicht diagnostiziert wurde (siehe auch unter Ressourcen für Links zur Studie).

Die AI könnte bei der Früherkennung von Krebserkrankungen helfen, wenn die Krankheit schwerer zu erkennen ist. In diesem Test wurden mit Hilfe von AI in den USA (UK) eine:

  • 5.7% (1.2%) Reduktion der falsch positiven Diagnosen und
  • 9.4% (2.7%) weniger falsch negative Ergebnisse den Patienten präsentiert.

Im Vereinigten Königreich (UK) werden Frauen seltener als in den USA untersucht. In der Regel einmal alle drei Jahre. Nichtsdestotrotz werden ihre Mammographien von zwei Radiologen und manchmal von einem dritten, wenn sie nicht einverstanden sind, überprüft. Das erklärt sicherlich, warum in den USA die Resultate dank AI nur geringfügig verbessert wurden, siehe obige Zahlen in Klammern, als das System mit zwei bis drei Radiologen für die Diagnose.

Strategie: Digitalisierung und künstlicher Intelligenz

2020-02-19 (Mi) hat Ursula von der Leyen eine digitale Strategie vorgestellt, wie die EU-Kommission die digitale Zukunft Europas prägen will.  Hier eine Übersicht zum AI Weissbuch und Datenstrategie von der EU

1. Weissbuch zum Umgang mit künstlicher intelligenz (KI)

Das Weissbuch wird von der dänischen Wettbewerbskommisarin Margrethe Vestager verantwortet. Danach haben „hochriskante“ KI-Systeme kümftig in der EU gewisse Kriterien zu erfüllen.  Beispielsweise müssen Unternehmen sicherstellen, dass Algorithmen nicht mit verfälschten Daten trainieren. Also ein Computer soll nicht Männer bevorzugen, nur weil diese in der Vergangenheit bevorzugt wurden oder weniger abwesend sind (z.B. wegen Schwangerschaft/Geburt).

Ebenfalls müssen Firmen dokumentieren wie der Algorithmus programmiert, trainiert und mit welchen Datensätzen dieser gefüttert wurde.  Interagiert ein Bürger mit einem KI-System, ist er davon in Kenntnis zu setzen.

Zur Zeit muss noch festgelegt werden was „hochriskante“ KI2 oder AI-Anwendungen sind. Es muss sich gleichzeit um einen riskanten Sektor und riskante Tätigkeit handeln.

PS. Im April 2019 hat die EU-Kommission ihre Ethik-Leitlinien für eine vertrauenswürdige KI veröffentlicht. Hier gibt es das  Weissbuch zum Umgang mit künstlicher intelligenz (KI)

2. Datenstrategie – „fit fürs digitale Zeitalter“

Der französische Binnenmarktkommissar Thierry Breton will einen Binnenmarkt für Daten schaffen. Die europäische Datenstrategie soll laut Kommission sicherstellen, dass Europa als eine Datenmacht jenseits von den USA und China sich etablieren kann.

Die Idee ist dabei, dass viele Akteuere auf alle möglichen nichtpersonalisierten Daten zugreifen können. Das soll zwischen den EU Mitgliedstaaten wie auch zwischen verschiedenen Wirstahftssektoren möglich sein. Dabei denkt die Kommission das Europa in Sachen personalisierter Daten auf verlorenem Posten steht. Doch bei den industriellen Daten kann Europa mit der optimalen Regulierung ein wichtiges Wörtchen mitreden.

Die Kommission will auch in Leuchtturmprojekte für europäische Rechenzentren und gemeinsame Cloud-Infrastrukturen investieren. Die von der DE Bundesregierung lancierte Cloud-Allianz Gaia X bezeichnete Binnenmarktkommissar Thierry Breton hier als guten Ansatzpunkt für eine offene, sichere Plattformlösung, der auf europäischer Ebene mit weiteren Initiativen etwa aus Frankreich zusammengeführt werden solle. „Wir wollen keine Plattformen mit Gatekeeper-Funktion auf dem Binnenmarkt.“

Nobellpreisträger

1979 wies der Nobellpreisträger Wassily Leontief auf das Schicksal des Pferdes hin. Pferde waren lange Zeit von entscheidender wirtschaftlicher Bedeutung, aber in der zweiten Hälfte des 20. Jahrhunderts verblasste der Verbrennungsmotor als dominierende Quelle von Pferdestärken.

Pferde haben immer noch eine Nische, aber sie werden niemals die Motoren übertrumpfen, egal wie billig Hafer wird. Werden viele menschliche Arbeiter den Weg des Pferdes gehen? Das ist die Frage die wir hier klären wollen.

Die Maschinen machen rasche Fortschritte bei der Übersetzung, der Spracherkennung und der Klassifizierung von Krankheiten wie Hautkrebs (aus Bildern von Muttermalen), Brustkrebs (aus Bildern von Mammographien) und Diabetes (aus Bildern von Netzhäuten).

Aufgabe für Aufgabe überholen uns die Computer. Bei der Herausforderung „Visual Question Answering“, die CloudCV versucht, erreichen Menschen 81 Prozent. Noch im Jahr 2016 lagen die Maschinen bei 55 Prozent, im Sommer 2019 bei 75 Prozent. Es ist nur eine Frage der Zeit, bis sie einen besseren Job machen als wir – genau wie AlphaZero.

Die Nachvollziebarkeit der KI bei neuronalen Netzen ist nicht mehr möglich. Dies schürt Ängste. Im Kern geht es dabei um die Frage nach der Transparenz der Prozesse.

Die Spanne zwischen den Erwartungen der Wall Street und der Realität in der Forschung und Anwendung ist grösser geworden. In Betracht der hohen Aktienbewertungen ist daher auch Vorsicht angesagt.

Forscher stellen die Prophezeiung der Hightech-Branche infrage, mit dem Einsatz von immer mehr Daten und Computerressourcen würden stetig besser Resultate mit Hilfe von AI erziehlt. Immer mehr Daten und Rechenkraft alleine basierend auf den bis anhin genutzten Modellen stetige Fortschritte zu machen scheint fraglich.

Gesichtserkennungssoftware wurde mit Daten entwickelt, die ohne Zustimmung gesammelt wurden. Die kommerzielle Verwertung dieser Daten zeigt zudem die komplexen ethischen Fragen rund um das Thema Gesichterkennungssoftware auf (siehe auch weitere Fakten zum Thema weiter unten).

Hier eine laufend aktualisierte Liste von Forschungsresultaten, White Papers, usw. zum Thema AI oder Machine Learning. Neue Publikationen werden nach Erhalt von den Angaben von uns aufgeführt:

Buolamwini, Joy; Gebru, Timnit (Februar 2018): Gender shades: intersection accuracy disparities in commercial gender classification. Proceedings of Machine Learning Research, 81, S. 1-15. Aufgerufen am 15. Aug. 2019, auf http://proceedings. mlr.press/v81/buolamwini18a/buolamwini18a.pdf . Siehe auch Zusammenfassung der Studie mit Video von Larry Hardesty (11. Februar 2018). Study finds gender and skintype bias in commercial artificial-intelligence systems. MIT News auf http://news.mit.edu/2018/study-finds-genderskin-type-bias-artificial-intelligence-systems-0212

Harford, Tim (2020-01-04/05). Robots will not be coming for our jobs just yet. Financial Times, Opinion, S. 9. Aufgerufen, 5. Januar 2020 auf https://www.ft.com/content/ad0f30ac-2b1d-11ea-a126-99756bd8f45e

Konrad Adenauer Stiftung (2018). Künstliche Intelligenz. Häufig gestellte Fragen. Sankt Augustin/Berlin: Konrad-Adenauer-Stiftung e. V. Aufgerufen am 19. Dezember, 2019 auf https://test.drkpi.ch/en/portfolio-item/gdpr-for-the-board/

Lex (2018-10-04). Amazon: Pay and display. Financial Times, S. 12.

Leontief, Wassily (1979-09/10). Is technological unemployment inevitable? Challenge, 22(4), S 48-50. Aufgerufen am 4. Januar 2020 auf https://doi.org/10.1080/05775132.1979.11470549

McKinney, S.M., Sieniek, M., Godbole, V. et al.   (2020-01-01). International evaluation of an AI system for breast cancer screening. Nature, 577, 89–94. DOI:  10.1038/s41586-019-1799-6 Aufgerufen am 4. Januar 2020 auf https://www.nature.com/articles/s41586-019-1799-6. Der kostenlose Download ist hier.

Levy, Frank & Murnane, Richard, J. (2003-11). The skill content of recent technological change: An empirical exploration. The Quarterly Journal of Economics, S. 1279-1332. Aufgerufen am. 4 Januar 2020 auf https://economics.mit.edu/files/11574

Murgia, Madhumita (2019-04-20/21). The face race. Financial Times, Weekend Edition, Spectrum, S. 17-18. Aufgerufen am 21. Dezember, 2019 auf https://www.ft.com/content/41be9878-61d9-11e9-b285-3acd5d43599e

Sample, Ian (2020-01-01). AI system outperforms experts in spotting breast cancer. Program developed by Google Health tested on mammograms of UK and US women. Guardian Online. Aufgerufen 4. Januar 2020 auf https://www.theguardian.com/society/2020/jan/01/ai-system-outperforms-experts-in-spotting-breast-cancer

Susskind, Daniel (2020-01). A world without work: Technology, automation, and how we should respond.
London, UK: Metropolitan Books. Aufgerufen am 1. Februar 2020 auf https://www.danielsusskind.com/a-world-without-work

Stanford Artificial Index Project (jährlich). An der Stanford Universität, siehe https://hai.stanford.edu/ai-index/2019

Wenn Sie eine Arbeit hier aufgelistet sehen möchten, kontaktieren Sie uns mit den Details, wir nehmen den Bericht, Master-Doktorarbeit oder White Paper dann gerne hier in die Liste auf.

KI in der Praxis

Theorie und Daten

In einer Studie über die Ökonomie des technologischen Wandels machten Autor und Levy (2003) zwei wichtige Feststellungen:

  1. Es ist irreführend, von Robotern – oder jeder anderen Technologie – zu sprechen, die Arbeitsplätze wegnehmen. Stattdessen führen Maschinen nur Aufgaben aus im Sinne einer engeren Einheit von Arbeit. Da die meisten Jobs viele verschiedene Aufgaben beinhalten, nehmen Roboter keine Jobs weg, aber sie können sie radikal umgestalten. Ein Roboter-Buchhalter ist nicht Alpha-1; es ist Excel oder QuickBooks. Wie beim Pferd gibt es keinen Lohn, mit dem menschliche Taschenrechner mit einem Computer bei der Aufgabe, eine Tabelle zu addieren, konkurrieren können. Dennoch gibt es menschliche Buchhalter in grosser Zahl. Ihre Aufgaben sehen heute einfach ganz anders aus.
  2. Seien die Aufgaben, die Maschinen übernehmen, am besten nicht als „gelernt“ oder „ungelernt“ zu beschreiben, sondern als „routinemässig“ oder „nicht routinemässig“. Die Neuberechnung einer Tabellenkalkulation ist eine geübte, aber routinemäßige Aufgabe, die sich leicht automatisieren lässt. Das Aufräumen der Küche erfordert wenig Geschicklichkeit – selbst ich kann das – ist aber nicht routinemäßig und daher schwer zu automatisieren.

Situation heute

Laut Harford (2020) hat sich diese Art, die Welt zu betrachten, als sehr nützlich erwiesen. Sie erklärte, warum die Technologie unsere Arbeit stören kann, ohne sie zu zerstören. Und warum sich sowohl der niedrig- als auch der hochbezahlte Teil des Arbeitsmarkts als robust erwies, während die Mitte, vollgepackt mit handwerklichen Routineaufgaben, ausgehöhlt wurde.

AI kann Routineprozesse übernehmen. Auch ist es ihr möglich, anhand der Daten Entscheidungen zu treffen, beispielsweise bei einer sekundenschneller Analyse von Bildmaterial am Flughafen mit Fahndungslisten.

2018 hat Amazon ca 100’000 Personen für das Weihnachtsgeschäft rekrutiert. Das war 20’000 weniger als noch 2017. Grund war, dass in dieser Zeit die Automatisierung der Arbeit in den Lagerhallen von Amazon stark fortgeschritten ist. Amazon vermutet, dass diese Zahl weiter sinken wird.

KI wird Veränderungen in der Produktion und Administration für Organisationen wie NGOs, öffentliche Verwaltung und Unternehmen bringen.

Situation morgen

Susskind (2020) argumentiert, dass die Grenzen der „Routine“ schnell verschwimmen.

Nehmen wir zum Beispiel CloudCV, ein System, das offene Fragen zu Bildern beantwortet. Laden Sie ein Bild hoch und stellen Sie beliebige Fragen. Das System gibt genaue Antworten auf informell formulierte Fragen zu zufälligen Fotos. Ist diese Aufgabe Routine? Kaum.

Auch nicht die Leistung von AlphaZero, dem von DeepMind, einer Schwesterfirma von Google, entwickelten Spielalgorithmus. Im Jahr 2017 trainierte sich AlphaZero in wenigen Stunden an, die beste Schachspiel-Engine und das beste Go-Programm zu schlagen, die beide die besten Menschen leicht besiegten. Manche behaupten, diese Leistung sei weniger beeindruckend, als es zunächst den Anschein hat – aber vor 10 Jahren schien die blosse Vorstellung, dass ein Computer einen Menschen beim Go schlagen könnte, nicht plausibel. Was die Supercomputer von DeepMind heute leisten können, wird bis 2030 auf Laptops und Handys möglich sein.

PS: PwC schätzt, dass bis 2029, in den industrialisierten Ländern viele Jobs durch Automation und AI wegrationalisiert werden:

  1. 30% der Arbeitsplätze im Finanz- und Versicherungsbereich, sowie
  2. 50% der Bürostellen.

McKinsey schätzt, dass z.B. in der Schweiz bis 2030 rund 1 Mio. Arbeitsplätze durch AI und neue Technologien ersetzt werden. Doch rund 800,000 neue Position wie Algorithmen-Auditor werden gleichzeitig entstehen.

Die Maschinen machen rasche Fortschritte bei der Übersetzung, der Spracherkennung und der Klassifizierung von Krankheiten wie Hautkrebs (aus Bildern von Muttermalen), Brustkrebs (aus Bildern von Mammographien) und Diabetes (aus Bildern von Netzhäuten).

Hier eine laufend aktualisierte Liste mit Podcasts und Videos im Blockchain Bereich. Neue Podcasts werden nachfolgend – nach Erhalt von den Angaben – von uns aufgeführt:

Podcasts

  •  

Videos

Wenn Sie einen Podcast hier aufgelistet sehen möchten, kontaktieren Sie uns mit den Details, wir nehmen den Podcast oder das Video gerne hier in die Liste auf.

1:56 Warum neuronale Netzwerke wichtig sind – künstliche neuronale Netzwerke, ein Ansatz, der Computern beibringt, menschliche Intelligenz zu imitieren/mimiken.

AI und Prävention / Frühdiagnose

Etwa 33 Millionen Screening-Mammographien werden jedes Jahr in den USA durchgeführt. Laut der American Cancer Society werden aber etwa 20 Prozent der Brustkrebsfälle übersehen, d.h. 1 in 5 Fällen.

Mehr als die Hälfte der Frauen erhalten ein falsch positive Diagnose, was dazu führt, dass sie für weitere Tests, manchmal sogar für Biopsien, zurückgerufen werden.

Nun haben neue Forschungsresultate (2020-01 – Zusammenfassung) herausgefunden, dass die künstliche Intelligenz den Ärzten helfen kann, Brustkrebs in der Mammographie besser zu erkennen. AI hilft dabei, falsch positive Ergebnisse zu reduzieren – wo Patienten fälschlicherweise gesagt wird, dass sie Krebs haben – und falsch negative Ergebnisse – wo die Krankheit vorhanden ist aber nicht diagnostiziert wurde (siehe auch unter Ressourcen für Links zur Studie).

Die AI könnte bei der Früherkennung von Krebserkrankungen helfen, wenn die Krankheit schwerer zu erkennen ist. In diesem Test wurden mit Hilfe von AI in den USA (UK) eine:

  • 5.7% (1.2%) Reduktion der falsch positiven Diagnosen und
  • 9.4% (2.7%) weniger falsch negative Ergebnisse den Patienten präsentiert.

Im Vereinigten Königreich (UK) werden Frauen seltener als in den USA untersucht. In der Regel einmal alle drei Jahre. Nichtsdestotrotz werden ihre Mammographien von zwei Radiologen und manchmal von einem dritten, wenn sie nicht einverstanden sind, überprüft. Das erklärt sicherlich, warum in den USA die Resultate dank AI nur geringfügig verbessert wurden, siehe obige Zahlen in Klammern, als das System mit zwei bis drei Radiologen für die Diagnose.

Hier eine laufend aktualisierte Liste von Forschungsresultaten, White Papers, usw. zum Thema AI oder Machine Learning. Neue Publikationen werden nach Erhalt von den Angaben von uns aufgeführt:

Buolamwini, Joy; Gebru, Timnit (Februar 2018): Gender shades: intersection accuracy disparities in commercial gender classification. Proceedings of Machine Learning Research, 81, S. 1-15. Aufgerufen am 15. Aug. 2019, auf http://proceedings. mlr.press/v81/buolamwini18a/buolamwini18a.pdf . Siehe auch Zusammenfassung der Studie mit Video von Larry Hardesty (11. Februar 2018). Study finds gender and skintype bias in commercial artificial-intelligence systems. MIT News auf http://news.mit.edu/2018/study-finds-genderskin-type-bias-artificial-intelligence-systems-0212

Harford, Tim (2020-01-04/05). Robots will not be coming for our jobs just yet. Financial Times, Opinion, S. 9. Aufgerufen, 5. Januar 2020 auf https://www.ft.com/content/ad0f30ac-2b1d-11ea-a126-99756bd8f45e

Konrad Adenauer Stiftung (2018). Künstliche Intelligenz. Häufig gestellte Fragen. Sankt Augustin/Berlin: Konrad-Adenauer-Stiftung e. V. Aufgerufen am 19. Dezember, 2019 auf https://test.drkpi.ch/en/portfolio-item/gdpr-for-the-board/

Lex (2018-10-04). Amazon: Pay and display. Financial Times, S. 12.

Leontief, Wassily (1979-09/10). Is technological unemployment inevitable? Challenge, 22(4), S 48-50. Aufgerufen am 4. Januar 2020 auf https://doi.org/10.1080/05775132.1979.11470549

McKinney, S.M., Sieniek, M., Godbole, V. et al.   (2020-01-01). International evaluation of an AI system for breast cancer screening. Nature, 577, 89–94. DOI:  10.1038/s41586-019-1799-6 Aufgerufen am 4. Januar 2020 auf https://www.nature.com/articles/s41586-019-1799-6. Der kostenlose Download ist hier.

Levy, Frank & Murnane, Richard, J. (2003-11). The skill content of recent technological change: An empirical exploration. The Quarterly Journal of Economics, S. 1279-1332. Aufgerufen am. 4 Januar 2020 auf https://economics.mit.edu/files/11574

Murgia, Madhumita (2019-04-20/21). The face race. Financial Times, Weekend Edition, Spectrum, S. 17-18. Aufgerufen am 21. Dezember, 2019 auf https://www.ft.com/content/41be9878-61d9-11e9-b285-3acd5d43599e

Sample, Ian (2020-01-01). AI system outperforms experts in spotting breast cancer. Program developed by Google Health tested on mammograms of UK and US women. Guardian Online. Aufgerufen 4. Januar 2020 auf https://www.theguardian.com/society/2020/jan/01/ai-system-outperforms-experts-in-spotting-breast-cancer

Susskind, Daniel (2020-01). A world without work: Technology, automation, and how we should respond.
London, UK: Metropolitan Books. Aufgerufen am 1. Februar 2020 auf https://www.danielsusskind.com/a-world-without-work

Stanford Artificial Index Project (jährlich). An der Stanford Universität, siehe https://hai.stanford.edu/ai-index/2019

Wenn Sie eine Arbeit hier aufgelistet sehen möchten, kontaktieren Sie uns mit den Details, wir nehmen den Bericht, Master-Doktorarbeit oder White Paper dann gerne hier in die Liste auf.

Strategie: Digitalisierung und künstlicher Intelligenz

2020-02-19 (Mi) hat Ursula von der Leyen eine digitale Strategie vorgestellt, wie die EU-Kommission die digitale Zukunft Europas prägen will.  Hier eine Übersicht zum AI Weissbuch und Datenstrategie von der EU

1. Weissbuch zum Umgang mit künstlicher intelligenz (KI)

Das Weissbuch wird von der dänischen Wettbewerbskommisarin Margrethe Vestager verantwortet. Danach haben „hochriskante“ KI-Systeme kümftig in der EU gewisse Kriterien zu erfüllen.  Beispielsweise müssen Unternehmen sicherstellen, dass Algorithmen nicht mit verfälschten Daten trainieren. Also ein Computer soll nicht Männer bevorzugen, nur weil diese in der Vergangenheit bevorzugt wurden oder weniger abwesend sind (z.B. wegen Schwangerschaft/Geburt).

Ebenfalls müssen Firmen dokumentieren wie der Algorithmus programmiert, trainiert und mit welchen Datensätzen dieser gefüttert wurde.  Interagiert ein Bürger mit einem KI-System, ist er davon in Kenntnis zu setzen.

Zur Zeit muss noch festgelegt werden was „hochriskante“ KI2 oder AI-Anwendungen sind. Es muss sich gleichzeit um einen riskanten Sektor und riskante Tätigkeit handeln.

PS. Im April 2019 hat die EU-Kommission ihre Ethik-Leitlinien für eine vertrauenswürdige KI veröffentlicht. Hier gibt es das  Weissbuch zum Umgang mit künstlicher intelligenz (KI)

2. Datenstrategie – „fit fürs digitale Zeitalter“

Der französische Binnenmarktkommissar Thierry Breton will einen Binnenmarkt für Daten schaffen. Die europäische Datenstrategie soll laut Kommission sicherstellen, dass Europa als eine Datenmacht jenseits von den USA und China sich etablieren kann.

Die Idee ist dabei, dass viele Akteuere auf alle möglichen nichtpersonalisierten Daten zugreifen können. Das soll zwischen den EU Mitgliedstaaten wie auch zwischen verschiedenen Wirstahftssektoren möglich sein. Dabei denkt die Kommission das Europa in Sachen personalisierter Daten auf verlorenem Posten steht. Doch bei den industriellen Daten kann Europa mit der optimalen Regulierung ein wichtiges Wörtchen mitreden.

Die Kommission will auch in Leuchtturmprojekte für europäische Rechenzentren und gemeinsame Cloud-Infrastrukturen investieren. Die von der DE Bundesregierung lancierte Cloud-Allianz Gaia X bezeichnete Binnenmarktkommissar Thierry Breton hier als guten Ansatzpunkt für eine offene, sichere Plattformlösung, der auf europäischer Ebene mit weiteren Initiativen etwa aus Frankreich zusammengeführt werden solle. „Wir wollen keine Plattformen mit Gatekeeper-Funktion auf dem Binnenmarkt.“

Nobellpreisträger

1979 wies der Nobellpreisträger Wassily Leontief auf das Schicksal des Pferdes hin. Pferde waren lange Zeit von entscheidender wirtschaftlicher Bedeutung, aber in der zweiten Hälfte des 20. Jahrhunderts verblasste der Verbrennungsmotor als dominierende Quelle von Pferdestärken.

Pferde haben immer noch eine Nische, aber sie werden niemals die Motoren übertrumpfen, egal wie billig Hafer wird. Werden viele menschliche Arbeiter den Weg des Pferdes gehen? Das ist die Frage die wir hier klären wollen.

Die Maschinen machen rasche Fortschritte bei der Übersetzung, der Spracherkennung und der Klassifizierung von Krankheiten wie Hautkrebs (aus Bildern von Muttermalen), Brustkrebs (aus Bildern von Mammographien) und Diabetes (aus Bildern von Netzhäuten).

Aufgabe für Aufgabe überholen uns die Computer. Bei der Herausforderung „Visual Question Answering“, die CloudCV versucht, erreichen Menschen 81 Prozent. Noch im Jahr 2016 lagen die Maschinen bei 55 Prozent, im Sommer 2019 bei 75 Prozent. Es ist nur eine Frage der Zeit, bis sie einen besseren Job machen als wir – genau wie AlphaZero.

Die Nachvollziebarkeit der KI bei neuronalen Netzen ist nicht mehr möglich. Dies schürt Ängste. Im Kern geht es dabei um die Frage nach der Transparenz der Prozesse.

Die Spanne zwischen den Erwartungen der Wall Street und der Realität in der Forschung und Anwendung ist grösser geworden. In Betracht der hohen Aktienbewertungen ist daher auch Vorsicht angesagt.

Forscher stellen die Prophezeiung der Hightech-Branche infrage, mit dem Einsatz von immer mehr Daten und Computerressourcen würden stetig besser Resultate mit Hilfe von AI erziehlt. Immer mehr Daten und Rechenkraft alleine basierend auf den bis anhin genutzten Modellen stetige Fortschritte zu machen scheint fraglich.

Gesichtserkennungssoftware wurde mit Daten entwickelt, die ohne Zustimmung gesammelt wurden. Die kommerzielle Verwertung dieser Daten zeigt zudem die komplexen ethischen Fragen rund um das Thema Gesichterkennungssoftware auf (siehe auch weitere Fakten zum Thema weiter unten).

France: 2021-06-07 verhängte Frankreich  eine Geldstrafe von €220 Mio. gegen Google wegen Missbrauchs der „dominanten“ Anzeigenposition im Online-Werbemarkt.

Insbesondere untersuchte die französische Wettbewerbsbehörde die enge Beziehung zwischen Googles AdX Exchange, dem Marktplatz, auf dem Anzeigen versteigert werden, und Googles Ad Manager, einer Anzeigenverkaufsplattform, die aus der 3,1 Milliarden Dollar teuren Übernahme von Doubleclick im Jahr 2008 hervorging.

Google hat seine Doppelrolle genutzt um Preisinformationen über Konkurrenten von Ad Manager an AdX weiterzugegeben. Dies verschaffte AdX einen Vorteil gegenüber anderen Auktionshäusern.

Isabelle de Silva, Vorsitzende der französischen Wettbewerbsbehörde, wird in der Pressemitteilung wie folgt zitiert

„Die Entscheidung, mit der Google sanktioniert wird, ist besonders bedeutsam, weil es sich um die weltweit erste Entscheidung handelt, die die komplexen algorithmischen Gebotsprozesse untersucht, nach denen Online-Display-Werbung funktioniert.“

PS: Google akzeptiert die Busse (siehe Blogeintrag) 

Im Gegensatz zum Bsp. Google oben geht es hier nicht um wie fair der Algorithmus ist. Anstatt geht es darum, wie die Daten – in diesem Falle Fotos – gesammelt wurden und wie diese verwertet werden – Sinn und Zweck.

EU

Clearview AI ist ein US-amerikanisches Unternehmen, das Fotos von Websites ausliest, um eine permanent durchsuchbare Datenbank mit biometrischen Profilen zu erstellen. US-Behörden nutzen die Gesichtserkennungsdatenbank, um weitere Informationen über sonst unbekannte Personen auf Bildern und Videos zu finden. Nach juristischen Eingaben von noyb hat die Hamburger Datenschutzbehörde solche biometrischen Profile von Europäern als rechtswidrig eingestuft und Clearview AI angewiesen, das biometrische Profil des Beschwerdeführers zu löschen.

Leider erliess die Hamburger Datenschutzbehörde eine eng gefasste Anordnung, die nur den einzelnen Beschwerdeführer schützt, anstatt eine Anordnung zu erlassen, die das Sammeln aller Fotos von Europäern verbietet, wie noyb argumentiert hatte. Jede europäische Datenschutzbehörde hat das Recht, allgemeine Anordnungen zu erlassen, die über die individuelle Beschwerde hinausgehen. Ohne eine solche Allgemeinverfügung müsste jeder Europäer eine eigene Beschwerde gegen Clearview AI einreichen, um nicht in die Suchergebnisse der biometrischen Datenbank aufgenommen zu werden. Dies ist nicht nur ineffizient, sondern auch eine unnötige Belastung für die Europäer, die aktiv etwas unternehmen müssen, um ihr Profil aus der biometrischen Datenbank von Clearview AI entfernen zu lassen, obwohl die Erhebung solcher Daten bereits von vornherein illegal ist. Darüber hinaus hat die Hamburger Datenschutzbehörde es versäumt, die Löschung der Fotos von Herrn Marx anzuordnen und die Entscheidung auf die mathematischen Hash-Werte beschränkt, die das biometrische Profil von Herrn Marx repräsentieren.

2021-05-26 haben Personen / Organisationen aus 4 europäischen Staaten Beschwerde gegen das auf Gesichtserkennung spezialisierte Unternehmen Clearview AI eingelegt.

Die Beschwerden wurden bei den Datenschutzbehörden in Frankreich, Österreich, Italien, Griechenland und dem Vereinigten Königreich eingereicht. Darin halten die Kläger fest, dass die Aktivitäten des Unternehmens nach der Datenschutz-Grundverordnung DSGVO eine unerlaubte Massenüberwachung darstellen und illegal sind. Das Unternehmen verstosse gegen Artikel 9, Absatz 1 der DSGVO, weil es ohne Zustimmung der betroffenen Person biometrische Daten verarbeitet, die geeignet sind, diese eindeutig zu identifizieren.

Kanada

2021-02-03 – Kanadische Behörden erklärten die KI-Gesichtserkennungsanwendung von Clearview für illegal. Der kanadische Datenschutzbeauftragte Daniel Therrien nannte sie ein Werkzeug zur Massenüberwachung.

Der App-Entwickler Clearview hat nach eigenen Angaben mehr als 3 Milliarden Fotos aus sozialen Netzwerken und anderen öffentlichen Websites verwendet, um Clearview AI zu entwickeln, das derzeit von mehr als 2.400 US-Strafverfolgungsbehörden genutzt wird.

Die kanadischen Datenschutzgesetze schreiben vor, dass die Zustimmung der Kanadier zur Nutzung persönlicher Daten eingeholt werden muss.

Clearview behauptete, dass es für die Verwendung von biometrischen Gesichtsdaten, die aus öffentlich zugänglichen Online-Fotos stammen, keine Zustimmung benötigt. Die Kommissare sträubten sich dagegen, dass die Bilder auf eine Art und Weise verwendet werden, die die Poster der Fotos nicht beabsichtigt hatten, in einer Art und Weise, die „das Risiko eines erheblichen Schadens für diese Personen schaffen könnte.“

Bei der Urteilsverkündung argumentierte Clearview, dass die kanadischen Datenschutzgesetze nicht auf seine Aktivitäten anwendbar seien, da das Unternehmen keine „reale und wesentliche Verbindung“ zu Kanada habe und eine Zustimmung nicht erforderlich sei, da die Informationen öffentlich zugänglich seien (z.B. in sozialen Netzwerken wie Facebook oder LinkedIn).

Die Datenschützer (Privacy Commissioners) wiesen diese Argumente zurück. Sie waren besonders besorgt darüber, dass das Unternehmen nicht anerkannte, dass die massenhafte Sammlung biometrischer Informationen von Milliarden von Menschen ohne ausdrückliche Zustimmung die vernünftige Erwartung der Privatsphäre des Einzelnen verletzt und dass das Unternehmen der Ansicht war, dass seine Geschäftsinteressen die Rechte auf Privatsphäre überwiegen.

Zur Anwendbarkeit der kanadischen Gesetze merkten sie an, dass Clearview die Bilder von Kanadiern sammelte und seine Dienste aktiv an Strafverfolgungsbehörden in Kanada vermarktete. Die RCMP (Royal Canadian Mounted Police) wurde zu einem zahlenden Kunden und insgesamt wurden 48 Konten für Strafverfolgungsbehörden und andere Organisationen im ganzen Land eingerichtet.

 

DOWNLOAD LEITFADEN

So setzen Sie Ihr Artificial Intelligence oder Robotics-Projekt erfolgreich um!

Change-Management und Empfehlungen für die Risiko-Reduzierung bei Digital Business, Marketing und Artificial Intelligence-Projekten.

Unser Leitfaden hilft Ihnen, Risiken wie Zeit- und Budgetüberschreitungen rechtzeitig zu erkennen und zu minimieren.

PS. Erhalt der Bestätigungsmail für den Downloadlink kann 5-10 Minuten dauern.

Download Leitfaden

So setzen Sie Ihr Artificial Intelligence oder Robotics-Projekt erfolgreich um!

Change-Management und Empfehlungen für die Risiko-Reduzierung bei Digital Business, Marketing und Artificial Intelligence-Projekten.

Unser Leitfaden hilft Ihnen, Risiken wie Zeit- und Budgetüberschreitungen rechtzeitig zu erkennen und zu minimieren.

PS. Erhalt der Bestätigungsmail für den Download Link kann 5-10 Minuten dauern.

Erhalten Sie jetzt unseren Newsletter!