Was wird uns die Google KI bringen? Weniger Privatsphäre
Der CEO von Google, Sundar Pichai, denkt, dass wir nun in einer Welt der künstlichen Intelligenz leben. Das ist soweit richtig: Der neueste Trend (neben VR möglicherweise) sind die Assistenten von Google, Apple und Microsoft. Dass dies aber Probleme bringen kann, liegt auf der Hand. Ein Bericht.
KI steht für Künstliche Intelligenz. Unsere Smartphones wissen teils mehr über uns als unsere eigenen Partner oder Eltern. Dies an sich ist nicht sonderlich bedenklich, da es sich leichter im Geheimen tippt als Dinge offen anzusprechen. Doch wenn fehlende Verschlüsselung unsere geheimsten Fragen und Wünsche der Welt preisgeben kann, wird das Ganze etwas unheimlich.
Eine der neuen Software-Tricks von Google ist der Google Assistant. Auf der offiziellen Seite zum Assistenten seht ihr, was Google von euch so sammelt. Oder eigentlich: Nicht so. Google und seine Google KI sind absichtlich vage, was die kolportierte Sammelwut des Konzerns betrifft. Und hier beginnen die Probleme.
Das betrifft nicht nur die Google KI
Jede künstliche Intelligenz, sei es nun der Assistant, Siri oder Cortana, sammelt zunächst Informationen, um dann damit etwas anzufangen. So ist auch der Lernprozess bei Menschen: Am Anfang steht die Info. Überlegt mal kurz, was unsere Smartphones alles können. Ihr fragt euer Smartphone, wie das Wetter wird, und ein Abgleich beginnt. Euer Standort wird bestimmt, ein Dienst wird abgerufen – sehr praktisch, keine Frage.
Jede Assistenz läuft nach diesem Schema ab, doch Google möchte mit seiner Google KI (oder Google Now) einen Schritt weiter gehen. Der Konzern möchte nicht nur auf Anfragen reagieren können, sondern proaktiv Vorschläge liefern. Dazu müssen allerdings Gewohnheiten und Vorlieben gesammelt werden, um spezifischere Fragen wie “wo sollen wir heute essen?” zu beantworten.
Apple lässt seine KI nicht vorausplanen, sondern ausschließlich auf Anfragen reagieren. Darüber hinaus bleibt die gesamte gelernte Datenmenge auf dem Gerät selbst, das heißt, kein Server und keine Festplatte der Welt sieht eure Präferenzen. Das hat zwar Vorteile bezüglich der Privatsphäre, doch mit der Ambition von Google KI beziehungsweise dem Google Assistant kann diese Zurückhaltung nicht mithalten.
Auf der offiziellen Website des Google Assistant steht praktisch geschrieben, dass er Zugriff auf euren Speicher und eure Kontakte hat. Also alles, was auf eurem Gerät gespeichert ist (Cookies, Verläufe, Lesezeichen, Bilder, Nachrichten, Standortdaten, Navigationsrouten und so weiter), kann dieser Assistant abgreifen. Auch Inhalte am Bildschirm sind vor diesem Assistant nicht sicher. Klar, denn er muss ja lernen, was euch gefällt.
Verschlüsselung ade: Ist das gut?
Doch damit diese künstliche Intelligenz überhaupt funktionieren kann, gibt es einen kritischen Sicherheitsmakel. Die Nachrichten und alles, was durchsucht werden kann, müssen unverschlüsselt bleiben. Eine Verschlüsselung bewirkt bekanntlich, dass Daten ohne den passenden Schlüssel unverständliches und wirres Gebrabbel sind. Mit dem passenden Softwareschlüssel (der jedes Mal anders sein sollte) im Hintergrund bekommt ihr dann, ohne es mitzukriegen, die echten Daten geliefert. iMessage, Telegram und WhatsApp verschlüsseln beispielsweise mittlerweile standardmäßig sämtlichen Schriftverkehr.
Wenn der Assistant nun eure Daten nicht lesen kann, gibt es keinen Assistant. Hier muss sich jeder Konzern entscheiden, welchen Weg er einschlägt. Verschlüsselung bedeutet, dass keine fremde Partei Daten abgreifen und auch etwas damit anfangen kann. Keine Verschlüsselung bedeutet, dass man durch Vernetzungen und maschinellem Lernen mehr damit anstellen kann. Da die Verschlüsselungs-Keys immer unterschiedlich sind (ihr wisst schon, für die Sicherheit), ist es auch keine Option, einen Master-Key für eine App bereitzustellen.
Das wäre dann für beide Welten fürs Erste okay (grundsätzlich verschlüsselt und der Assistent kann alles lesen, weil er den Key hat). Allerdings nicht für lange, denn wenn dieser Master-Key einmal herausgefunden wird, ist die Sicherheit auch wieder dahin und wir stehen wieder am Anfang. Eine durchsuchbare Verschlüsselung wird zwar erforscht, wird aber noch lange nicht Realität sein. Sicherheit ist nun mal binär: Entweder ist ein Eintrag lesbar oder nicht.
Was sollen wir nun tun?
Grundsätzlich hängt es immer von den UserInnen ab, was sie wollen. Google hat einen klugen Schachzug bei seiner eigenen Messaging-App Allo gemacht. Hier bleibt es euch überlassen, ob ihr die Nachrichten unverschlüsselt lassen wollt (was dem Assistant hilft) oder lieber verschlüsseln wollt. Im letzteren Fall ist dann aber der Assistant außen vor. Geht es euch also eher um Sicherheit, werdet ihr von einigem, was die Google KI zu bieten hat, nicht profitieren können. Andersrum macht ihr euch im Austausch für mehr Komfort datentechnisch verwundbarer.
Ich persönlich bin ja seit 2009 auf der Schiene, dass mir Datensicherheit näher am Herzen liegt als zukunftsträchtige Assistenten, die mir Vorschläge liefern wollen. Das ist der Grund, wieso ich mich mit Verschlüsselung beschäftige, warum ich kein Administrator-Konto täglich am Computer nutze und weshalb ich in meinem Kreis der go-to-Typ bin, wenn es um Computerfragen geht. Allerdings verstehe ich auch, wenn andere Leute andere Präferenzen haben. Mir liegt also nichts ferner, als Leuten etwas einzureden – denn schließlich ist eine Diskussion keine Überzeugungsarbeit, sondern ein Meinungsaustausch. Daher interessiert mich: Was ist für euch wichtiger? Eine überlegene Künstliche Intelligenz im Alltag oder lieber mehr Sicherheit?