Von Apple engagierte „Analysten“ hören sich „aus Versehen aufgenommene“ Audiodaten an, die Apple-Sprachassistentin Siri erstellt hat. Dabei hören sie dann Menschen beim Sex, bei Drogengeschäften, beim Besprechen von Gesundheitsproblemen mit dem Arzt und bei anderen mormalerweise als sehr privat betrachteten Momenten. So berichtete es eine anonyme interne Quelle dem Magazin The Guardian.
Von Apple gibt es auch eine indirekte Bestätigung der Praxis. „Eine kleine Anzahl an Siri-Anfragen wird analysiert, um Siri und die Diktierfunktion zu verbessern“, erklärt Apple. Der Konzern besteht darauf, dass solche Daten genutzt werden, um die Spracherkennung präziser auf die jeweiligen Benutzer einzustellen. Allerdings würden solche Daten niemals mit einer Apple-ID oder einem Apple-Konto in Verbindung gebracht, winden sich die Datendiebe vom angebissenen Apfel heraus.
Apple-Mitarbeiter und Drittfirmen hören intimste Momente mit
Die Quelle des Guardian nennt viele Situationen, in denen sehr Privates von Menschen bei Apple mitgehört wird. „Es gab schon zahllose Fälle, in denen private Diskussionen, Geschäfte, kriminelle Machenschaften und Sex aufgenommen wurden“, bestätigt sie dem Guardian.
Obwohl alle iOS-Geräte auch Apples Sprachassistentin Siri unterstützen, werden nach dem Bericht solche Vorfälle am häufigsten von der Apple Watch oder Apples Heimassistenten Homepod mitgeschnitten. „Die Uhr kann einen Soundschnipsel aufnehmen, der 30 Sekunden lang ist“, sagt die Quelle.
Unter anderem das Geräusch eines Reißverschlusses würde häufig Siri aktivieren. Ist das noch Zufall – oder Resultat voyeuristischer Tendenzen beim Programmierer?
Praktisch kein Datenschutz für die Spione im eigenen Heim
Apple betont, dass „weniger als 1% der täglichen Siri-Aktivierungen“ betroffen sind, dass die Daten nicht mit der Apple ID verknüpft würden und dass die damit betrauten Mitarbeiter sich an Apples „strikte Vertraulichkeitsvereinbarungen“ halten müssten. Das alles ist aber ein sehr schwacher Trost.
Denn für Apples Angestellte oder auch für gedungene Mitarbeiter aus dem Horch-und-Guck-Milieu sei es teilweise „unkonfortabel“, solche Audioaufnahmen anhören zu müssen. Es sei auch nicht wirklich schwierig, Personen zuzuordnen, schreibt der Guardian. Beim versehentlichen Auslösen seien auch manchmal die Adressen oder Namen der Beteiligten zu hören.
Nach der Quelle des Guardian kommt noch hinzu, dass Apple die Aufzeichnungen auch noch mit Metadaten anreichere, damit die Mitarbeiter die Reaktion Siris besser bewerten können. Zu diesen Zusatzdaten gehöre unter anderem die geografische Position und auch Kontaktinformationen.
Besonders übel ist dabei, dass auch Drittfirmen mit der Auswertung beauftragt werden und dass es eine hohe Fluktuation der Mitarbeiter gibt. Das sieht alles nicht danach aus, dass Apple die Einhaltung seiner Vertraulichkeitsvereinbarungen auch wirklich garantieren kann.
Was auf ihrem iPhone passiert, bleibt nicht auf dem iPhone!
Das widerspricht ja total der Anfang 2019 von Apple verbreiteten Werbung: „Was auf Ihrem Telefon passiert, bleibt auf Ihrem Telefon.“
Allerdings haben auch die Entwickler anderer Sprachassistenten ebenfalls mit solchen Problemen zu kämpfen. Auch Google-Mitarbeiter hören etwa Gespräche mit, die mit Google Home aufgenommen werden, und auch Amazons Alexa wiederum ist keinen Deut besser.