Artwork

内容由Heise Medien and Heise online提供。所有播客内容(包括剧集、图形和播客描述)均由 Heise Medien and Heise online 或其播客平台合作伙伴直接上传和提供。如果您认为有人在未经您许可的情况下使用您的受版权保护的作品,您可以按照此处概述的流程进行操作https://zh.player.fm/legal
Player FM -播客应用
使用Player FM应用程序离线!

Kindesmissbrauch-Scanning auf iPhones – warum das so gefährlich ist | #heiseshow

 
分享
 

Manage episode 299847565 series 2494927
内容由Heise Medien and Heise online提供。所有播客内容(包括剧集、图形和播客描述)均由 Heise Medien and Heise online 或其播客平台合作伙伴直接上传和提供。如果您认为有人在未经您许可的情况下使用您的受版权保护的作品,您可以按照此处概述的流程进行操作https://zh.player.fm/legal

Apple hat angekündigt, direkt auf iPhones und iPads nach Darstellungen von Kindesmissbrauch ("Child Sexual Abuse Material", kurz CSAM) suchen und Funde an Behörden melden zu wollen. Die Kritik an den Plänen, die anfangs nur in den USA umgesetzt werden sollen, ist laut und ziemlich einhellig, bislang weicht der US-Konzern aber nicht zurück. Versuchte Apple bisher, sich als Verteidiger der Privatsphäre und des Datenschutzes zu präsentieren, geht es hier "um nichts weniger als im System verankerte Wanzen", lautet die Kritik. Zwar geht es hier um Darstellungen von Kindesmissbrauch, aber weitere Sachverhalte könnten hinzukommen, wird befürchtet. Worum es technisch geht und was hier auf dem Spiel steht, besprechen wir. Was genau hat Apple vor, wie soll das Scanning funktionieren? Wie begründet Apple die Pläne? Wie lassen sich die Reaktionen zusammenfassen und gibt es abseits der vielen Kritik auch Lob? Was genau wird kritisiert? Welche Gefahren sind mit dem Scanning verbunden? Wie hat Apple auf den Widerspruch reagiert? Apple geht es um die Foto-Bibliothek, was ist mit Apps? Losgehen wird es in den USA, sollen andere Staaten folgen? Was bedeutet der Schritt direkt für Nutzer und Nutzerinnen? Welche weitere Entwicklung scheint absehbar? Darüber und über viele weitere Fragen auch aus dem Publikum sprechen Jürgen Kuri (@jkuri) und Martin Holland (@fingolas) mit heises Senior Fellow Security Jürgen Schmidt (@ju916) und Leonhard Becker von Mac&i (@fscklog) in einer neuen Folge der #heiseshow.

  continue reading

391集单集

Artwork
icon分享
 
Manage episode 299847565 series 2494927
内容由Heise Medien and Heise online提供。所有播客内容(包括剧集、图形和播客描述)均由 Heise Medien and Heise online 或其播客平台合作伙伴直接上传和提供。如果您认为有人在未经您许可的情况下使用您的受版权保护的作品,您可以按照此处概述的流程进行操作https://zh.player.fm/legal

Apple hat angekündigt, direkt auf iPhones und iPads nach Darstellungen von Kindesmissbrauch ("Child Sexual Abuse Material", kurz CSAM) suchen und Funde an Behörden melden zu wollen. Die Kritik an den Plänen, die anfangs nur in den USA umgesetzt werden sollen, ist laut und ziemlich einhellig, bislang weicht der US-Konzern aber nicht zurück. Versuchte Apple bisher, sich als Verteidiger der Privatsphäre und des Datenschutzes zu präsentieren, geht es hier "um nichts weniger als im System verankerte Wanzen", lautet die Kritik. Zwar geht es hier um Darstellungen von Kindesmissbrauch, aber weitere Sachverhalte könnten hinzukommen, wird befürchtet. Worum es technisch geht und was hier auf dem Spiel steht, besprechen wir. Was genau hat Apple vor, wie soll das Scanning funktionieren? Wie begründet Apple die Pläne? Wie lassen sich die Reaktionen zusammenfassen und gibt es abseits der vielen Kritik auch Lob? Was genau wird kritisiert? Welche Gefahren sind mit dem Scanning verbunden? Wie hat Apple auf den Widerspruch reagiert? Apple geht es um die Foto-Bibliothek, was ist mit Apps? Losgehen wird es in den USA, sollen andere Staaten folgen? Was bedeutet der Schritt direkt für Nutzer und Nutzerinnen? Welche weitere Entwicklung scheint absehbar? Darüber und über viele weitere Fragen auch aus dem Publikum sprechen Jürgen Kuri (@jkuri) und Martin Holland (@fingolas) mit heises Senior Fellow Security Jürgen Schmidt (@ju916) und Leonhard Becker von Mac&i (@fscklog) in einer neuen Folge der #heiseshow.

  continue reading

391集单集

所有剧集

×
 
Loading …

欢迎使用Player FM

Player FM正在网上搜索高质量的播客,以便您现在享受。它是最好的播客应用程序,适用于安卓、iPhone和网络。注册以跨设备同步订阅。

 

快速参考指南