Artwork

内容由Rosa-Luxemburg-Stiftung提供。所有播客内容(包括剧集、图形和播客描述)均由 Rosa-Luxemburg-Stiftung 或其播客平台合作伙伴直接上传和提供。如果您认为有人在未经您许可的情况下使用您的受版权保护的作品,您可以按照此处概述的流程进行操作https://zh.player.fm/legal
Player FM -播客应用
使用Player FM应用程序离线!

Wo der Computer entscheidet, was verdächtig ist: Der Hansaplatz in St. Georg

54:49
 
分享
 

Manage episode 391894035 series 2479333
内容由Rosa-Luxemburg-Stiftung提供。所有播客内容(包括剧集、图形和播客描述)均由 Rosa-Luxemburg-Stiftung 或其播客平台合作伙伴直接上传和提供。如果您认为有人在未经您许可的情况下使用您的受版权保护的作品,您可以按照此处概述的流程进行操作https://zh.player.fm/legal
Eine Podiumsdiskussion zu Überwachungstechnologien und Sozialer Kontrolle Vom Südkreuz in Berlin bis zum Hansaplatz in Hamburg – die klassische Videoüberwachung im öffentlich zugänglichen Raum wird zunehmend auch mit Algorithmen ausgestattet, die zur automatischen Erkennung „verdächtigen Verhaltens“ dienen soll. Eingesetzt werden dabei vor allem sogenannte Beobachtungstechnologien, also Technologien, die als Mittel für soziale Kontrolle genutzt werden können. Mittels Bewegungsmuster- und Gesichtserkennung werden Menschen und ihr Verhalten digital erfasst und auf "Unregelmäßigkeiten" überprüft. Doch: KI-gestützte Überwachungstechnologien beobachten nicht nur, sie identifizieren (bspw. am Südkreuz) und/oder bewerten menschliche Handlungen danach, ob sie als „verdächtig“ gelten können (bspw. am Hansaplatz). Was Algorithmen als „verdächtiges“ Verhalten bewerten, erscheint als besonders objektiv und neutral. Dabei weisen diese Techniken sowohl eine hohe Fehlerquote als auch eine diskriminierende Verzerrung auf. Bevorzugt eingesetzt werden sie gegenüber Personengruppen, die als irregulär wahrgenommen werden, wie Obdachlose oder Drogennutzer:innen. Aber auch in Fußballstadien wird der Einsatz automatisierter Erkennungssysteme diskutiert und teils umgesetzt, wie das Beispiel Kopenhagen zeigt. Die Veranstaltung diskutiert wie sicherheitspolitische Debatten um den „gefährlichen“ Ort St. Georg, sozialpolitische Verdrängungsdynamiken und die Einführung von Systemen der Überwachung miteinander einhergehen. Wie ist die Situation am Hansaplatz derzeit konkret? Werden die algorithmisierten Überwachungstechnologien auf andere Bereiche, wie die Überwachung der wöchentlichen Großveranstaltungen der Fussballbundesligen, ausgeweitet? Welche Konsequenzen sind besonders für politische Akteure zu befürchten? In Kooperation mit dem Forschungsnetzwerk Sicherheit & Polizei, der Braun-Weißen Hilfe (https://www.braunweissehilfe.de/) und dem Kollektiv Café Libertad (https://www.cafe-libertad.de/). Diskussionsveranstaltung mit Nathalie Meyer (Linksfraktion Hamburg), Matthias Marx (Chaos Computer Club), Gudrun Greb (Ragazza e.V.) und Peter Ullrich (TU Berlin, Soziologe und Kulturwissenschaftler). Gefördert durch die Landeszentrale für politische Bildung. Veranstaltungswebseite: https://www.rosalux.de/veranstaltung/es_detail/GVJHE
  continue reading

635集单集

Artwork
icon分享
 
Manage episode 391894035 series 2479333
内容由Rosa-Luxemburg-Stiftung提供。所有播客内容(包括剧集、图形和播客描述)均由 Rosa-Luxemburg-Stiftung 或其播客平台合作伙伴直接上传和提供。如果您认为有人在未经您许可的情况下使用您的受版权保护的作品,您可以按照此处概述的流程进行操作https://zh.player.fm/legal
Eine Podiumsdiskussion zu Überwachungstechnologien und Sozialer Kontrolle Vom Südkreuz in Berlin bis zum Hansaplatz in Hamburg – die klassische Videoüberwachung im öffentlich zugänglichen Raum wird zunehmend auch mit Algorithmen ausgestattet, die zur automatischen Erkennung „verdächtigen Verhaltens“ dienen soll. Eingesetzt werden dabei vor allem sogenannte Beobachtungstechnologien, also Technologien, die als Mittel für soziale Kontrolle genutzt werden können. Mittels Bewegungsmuster- und Gesichtserkennung werden Menschen und ihr Verhalten digital erfasst und auf "Unregelmäßigkeiten" überprüft. Doch: KI-gestützte Überwachungstechnologien beobachten nicht nur, sie identifizieren (bspw. am Südkreuz) und/oder bewerten menschliche Handlungen danach, ob sie als „verdächtig“ gelten können (bspw. am Hansaplatz). Was Algorithmen als „verdächtiges“ Verhalten bewerten, erscheint als besonders objektiv und neutral. Dabei weisen diese Techniken sowohl eine hohe Fehlerquote als auch eine diskriminierende Verzerrung auf. Bevorzugt eingesetzt werden sie gegenüber Personengruppen, die als irregulär wahrgenommen werden, wie Obdachlose oder Drogennutzer:innen. Aber auch in Fußballstadien wird der Einsatz automatisierter Erkennungssysteme diskutiert und teils umgesetzt, wie das Beispiel Kopenhagen zeigt. Die Veranstaltung diskutiert wie sicherheitspolitische Debatten um den „gefährlichen“ Ort St. Georg, sozialpolitische Verdrängungsdynamiken und die Einführung von Systemen der Überwachung miteinander einhergehen. Wie ist die Situation am Hansaplatz derzeit konkret? Werden die algorithmisierten Überwachungstechnologien auf andere Bereiche, wie die Überwachung der wöchentlichen Großveranstaltungen der Fussballbundesligen, ausgeweitet? Welche Konsequenzen sind besonders für politische Akteure zu befürchten? In Kooperation mit dem Forschungsnetzwerk Sicherheit & Polizei, der Braun-Weißen Hilfe (https://www.braunweissehilfe.de/) und dem Kollektiv Café Libertad (https://www.cafe-libertad.de/). Diskussionsveranstaltung mit Nathalie Meyer (Linksfraktion Hamburg), Matthias Marx (Chaos Computer Club), Gudrun Greb (Ragazza e.V.) und Peter Ullrich (TU Berlin, Soziologe und Kulturwissenschaftler). Gefördert durch die Landeszentrale für politische Bildung. Veranstaltungswebseite: https://www.rosalux.de/veranstaltung/es_detail/GVJHE
  continue reading

635集单集

Tất cả các tập

×
 
Loading …

欢迎使用Player FM

Player FM正在网上搜索高质量的播客,以便您现在享受。它是最好的播客应用程序,适用于安卓、iPhone和网络。注册以跨设备同步订阅。

 

快速参考指南