Apple verspricht personalisierte KI in einer privaten Cloud. So soll das funktionieren.

Der Pitch bietet einen impliziten Kontrast zu Unternehmen wie Alphabet, Amazon oder Meta, die enorme Mengen an persönlichen Daten sammeln und speichern. Apple sagt, dass alle an die Cloud weitergegebenen persönlichen Daten nur für die jeweilige KI-Aufgabe verwendet und nicht gespeichert oder für das Unternehmen zugänglich gemacht werden, auch nicht für Debugging oder Qualitätskontrolle, nachdem das Modell die Anfrage abgeschlossen hat.

Vereinfacht ausgedrückt sagt Apple damit, dass die Menschen darauf vertrauen können, dass das Unternehmen äußerst sensible Daten – Fotos, Nachrichten und E-Mails, die intime Details unseres Lebens enthalten – analysiert und auf der Grundlage der dort gefundenen Daten automatisierte Dienste bereitstellt, ohne die Daten tatsächlich online zu speichern oder sie angreifbar zu machen.

Es wurden einige Beispiele gezeigt, wie dies in zukünftigen iOS-Versionen funktionieren wird. Anstatt beispielsweise durch Ihre Nachrichten zu scrollen, um den Podcast zu finden, den Ihnen Ihr Freund geschickt hat, können Sie Siri einfach bitten, ihn für Sie zu finden und abzuspielen. Craig Federighi, Senior Vice President für Softwareentwicklung bei Apple, erläuterte ein weiteres Szenario: Eine E-Mail verschiebt einen Arbeitstermin, aber seine Tochter tritt am Abend in einem Theaterstück auf. Sein Telefon kann nun das PDF mit Informationen zur Vorstellung finden, den lokalen Verkehr vorhersagen und ihm mitteilen, ob er pünktlich sein wird. Diese Fähigkeiten werden über die von Apple erstellten Apps hinausgehen und es Entwicklern ermöglichen, auch Apples KI zu nutzen.

Da das Unternehmen mehr von Hardware und Diensten als von Werbung profitiert, hat Apple weniger Anreize als andere Unternehmen, persönliche Online-Daten zu sammeln. Dadurch kann das Unternehmen das iPhone als das privateste Gerät positionieren. Trotzdem ist Apple schon früher ins Fadenkreuz von Datenschutzaktivisten geraten. Sicherheitslücken führten 2014 zum Leak von expliziten Fotos aus iCloud. 2019 wurde festgestellt, dass Vertragspartner zur Qualitätskontrolle vertrauliche Siri-Aufnahmen abhörten. Streitigkeiten darüber, wie Apple mit Datenanfragen von Strafverfolgungsbehörden umgeht, dauern an.

Die erste Verteidigungslinie gegen Datenschutzverletzungen besteht laut Apple darin, Cloud-Computing für KI-Aufgaben nach Möglichkeit zu vermeiden. „Der Eckpfeiler des persönlichen Intelligenzsystems ist die Verarbeitung auf dem Gerät“, sagt Federighi, was bedeutet, dass viele der KI-Modelle auf iPhones und Macs und nicht in der Cloud laufen werden. „Es kennt Ihre persönlichen Daten, ohne sie zu sammeln.“

Das bringt einige technische Hindernisse mit sich. Zwei Jahre nach dem KI-Boom erfordert das Pingen von Modellen selbst für einfache Aufgaben immer noch enorme Rechenleistung. Dies mit den in Telefonen und Laptops verwendeten Chips zu erreichen, ist schwierig, weshalb nur die kleinsten KI-Modelle von Google auf den Telefonen des Unternehmens ausgeführt werden können und alles andere über die Cloud erledigt wird. Apple sagt, dass seine Fähigkeit, KI-Berechnungen auf dem Gerät durchzuführen, auf jahrelange Forschung im Chipdesign zurückzuführen ist, die zu den M1-Chips führte, mit deren Einführung im Jahr 2020 begonnen wurde.

Doch selbst Apples fortschrittlichste Chips können nicht das gesamte Spektrum der Aufgaben bewältigen, die das Unternehmen mit KI zu erledigen verspricht. Wenn Sie Siri bitten, etwas Kompliziertes zu tun, muss es diese Anfrage möglicherweise zusammen mit Ihren Daten an Modelle weiterleiten, die nur auf Apples Servern verfügbar sind. Dieser Schritt, sagen Sicherheitsexperten, führt zu einer Reihe von Schwachstellen, die Ihre Informationen externen Angreifern oder zumindest Apple selbst preisgeben können.

„Ich warne die Leute immer, dass das Gerät viel angreifbarer wird, sobald die Daten das Gerät verlassen“, sagt Albert Fox Cahn, Geschäftsführer des Surveillance Technology Oversight Project und praktizierender Arzt am Information Law Institute der NYU Law School.

source site

Leave a Reply