netzpolitik.org

netzpolitik.org Feed abonnieren netzpolitik.org
Aktualisiert: vor 35 Minuten 54 Sekunden

Urteil: EU-Parlament muss Abrechnungen von griechischem Neonazi-Abgeordneten herausgeben

8. Mai 2024 - 18:19

Erstmals muss das Europäische Parlament Abrechnungsdaten eines Abgeordneten herausgeben. Weil Ioannis Lagos wegen Bildung einer kriminellen Vereinigung verurteilt wurde, überwiegt das öffentliche Interesse, urteilte das Gericht der Europäischen Union.

Festnahme von Ioannis Lagos im Mai 2021. – Alle Rechte vorbehalten IMAGO / ZUMA Wire

Der griechische Neonazi Ioannis Lagos sitzt in Griechenland wegen Bildung einer kriminellen Vereinigung im Gefängnis. Gleichzeitig ist er seit 2019 gewählter Abgeordneter im Europaparlament. Trotz seiner Haftstrafe hat Lagos weiterhin Zugriff auf Gelder des Europäischen Parlaments. Wie er diese verwendet, ist unbekannt.

Die Transparenz-NGO FragDenStaat hatte beim Europäischen Parlament eine Informationsfreiheitsanfrage zu den Geldern des rechtsradikalen Abgeordneten gestellt. Das Parlament lehnte die Anfrage im April 2022 ab. Es gebe generell keine Details über die Abrechnungen von Abgeordneten heraus. Dagegen klagte FragDenStaat vor dem Europäischen Gericht in Luxemburg – und hat nun Recht bekommen.

In der Pressemitteilung (PDF) des Gerichts heißt es:

Mit seinem heutigen Urteil erklärt das Gericht die Entscheidung des Europäischen Parlaments vom 8. April 2022 für nichtig, soweit den Antragstellern damit der Zugang zu Dokumenten über Herrn Lagos vom Parlament gezahlte Reisekostenerstattungen und Tagesgelder sowie zu Dokumenten über seinen parlamentarischen Assistenten gezahlte Reisekostenerstattungen verweigert wird.

Das Gericht befindet, dass im vorliegenden Fall die Privatsphäre des Abgeordneten hinter dem Recht der Öffentlichkeit auf Zugang zu den Dokumenten zurückstehen muss. Der Antrag ziele darauf ab, eine verstärkte öffentliche Kontrolle und Rechenschaftspflicht zu erleichtern, etwa im Hinblick auf den Zugang von Lagos zu öffentlichen Geldern. Dies aber sei angesichts der außergewöhnlichen Umstände – nämlich der langjährigen Haft des Politikers – gerechtfertigt, so das Gericht. Entsprechende Unterlagen über Tagegelder und Reisekosten von Lagos‘ Mitarbeitern müssten daher herausgegeben werden.

FragDenStaat hält den Fall auch für einen anderen Abgeordneten für relevant. Der AfD-Europaabgeordnete Maximilian Krah steht derzeit ebenfalls im Fokus der Medien. Sein Mitarbeiter soll ein chinesischer Spion sein und sitzt aktuell in Untersuchungshaft.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

OpenAI: Neues Werkzeug soll KI-generierte Bilder erkennen

8. Mai 2024 - 17:01

Ein neues Tool von OpenAI soll erkennen können, ob ein Bild echt ist oder mit dem Bildgenerator DALL-E erstellt wurde. Etwas ähnliches hat das gehypte Unternehmen bereits für seine KI-generierten Texte versprochen – und ist daran gescheitert.

Der echte OpenAI-Chef Sam Altman bei einem Termin vergangenen September im US-Kongress. – Alle Rechte vorbehalten Imago / Jack Gruber

Das KI-Unternehmen OpenAI arbeitet an Technologien, um Bilder zu erkennen, die mit seinem populären Generator DALL-E 3 erstellt werden. Das Werkzeug ist Teil eines größeren Pakets von Maßnahmen, mit dem das Unternehmen kurz vor der US-Wahl dafür sorgen will, dass sich seine KI-generierten Inhalte auch als solche erkennen lassen. Werkzeuge wie DALL-E haben es sehr einfach gemacht, täuschend echte Bilder zu erstellen. Fachleute fürchten, dass solche Bilder, Videos oder Tonaufnahmen in anstehenden Wahlkämpfen zur Gefahr werden.

In einem Blogpost schreibt OpenAI, es werde den neuen Detektor zunächst mit Forscher:innen teilen. Diese sollen das Werkzeug testen und Rückmeldungen geben, wie es verbessert werden kann. In internen Tests soll der Detektor bereits mehr 98 Prozent der Bilder von DALL-E 3 richtig erkannt haben. Gleichzeitig schneidet das System laut OpenAI schlechter ab, wenn es darum geht zwischen Bildern von DALL-E und Produkten der Konkurrenz zu unterscheiden, etwa von Stable Diffusion oder Midjourney.

Neuer Standard soll Fakes markieren

In der gleichen Mitteilung sagt OpenAI, es sei dem Lenkungsausschuss der „Coalition for Content Provenance and Authenticity“ beigetreten. Das Gremium, in dem andere Tech-Konzerne wie Adobe, Microsoft, Meta und Google sitzen, arbeitet an einem gemeinsamen Standard zur Beglaubigung von Medieninhalten. Er soll für Bilder, Videos und Ton-Dateien Informationen dazu liefern, wann und mit welchen Werkzeugen sie erstellt wurden. Im Falle eines mit DALL-E 3 generierten Bildes steht dann etwa in den Metadaten der Datei: „Verwendetes KI-Werkzeug: DALL-E“.

OpenAI fügt diese Daten bereits seit Anfang des Jahres automatisch in Inhalte ein, die mit seinen Systemen ChatGPT und DALL-E erstellt werden. Auch in Videos aus dem bislang nicht veröffentlichten System Sora sollen die Metadaten enthalten sein. Nachrichtenorganisationen und Forscher:innen sollen dadurch schneller erkennen können, woher ein Bild stammt.

Allerdings lassen sich solche Metadaten aus Dateien auch leicht wieder entfernen. Wer mit einem Bild, Video oder einer vermeintlichen Tonaufzeichnung bewusst täuschen wollte, würde sie wohl kaum in der Datei belassen. Sie eignen sich nicht, um zu belegen, ob ein Inhalt echt oder KI-generiert ist.

Das weiß auch OpenAI und schreibt: „Menschen können immer noch betrügerische Inhalte ohne diese Informationen erstellen (oder sie entfernen).“ Das Unternehmen plädiert dennoch dafür, solche Standards zu etablieren. Wenn sich die Metadaten erst mal etabliert hätten, würden Menschen misstrauischer gegenüber Medien, bei denen sie fehlten.

Unternehmen im Wahljahr unter Druck

OpenAI reagiert mit seiner Ankündigung auch auf den wachsenden Druck. In den USA stehen dieses Jahr Präsidentschaftswahlen an. Forscher:innen weisen darauf hin, wie gefälschte Inhalte im Wahlkampf eingesetzt werden, um den Ausgang der Wahlen zu beeinflussen. Im Kongress wurden mehrere Gesetzentwürfe eingebracht, die auf KI abzielen, bislang steht aber kein Gesetz kurz vor der Verabschiedung.

Anderswo hat die Politik den Druck schon erhöht: In der EU verpflichtet etwa die neue KI-Verordnung alle Anbieter von KI-Systemen zur Transparenz: Wer Werkzeuge anbietet, mit denen man Bild-, Audio- oder Videoinhalte erzeugen kann, „die Personen, Gegenständen, Orten, Einrichtungen oder Ereignissen deutlich ähneln und fälschlicherweise den Anschein erwecken, authentisch oder wahrheitsgetreu zu sein“, muss diese Inhalte klar kennzeichnen. Das gleiche gilt auch für Plattformen, die solche Inhalte verbreiten.

CEO Sam Altman reiste im vergangenen Jahr um die gesamte Welt, um mit Politiker:innen über OpenAIs Technologien zu sprechen. In der EU konnten die Lobbyist:innen des Unternehmens immerhin erfolgreich verhindern, dass die neuen Regeln für den Einsatz von Künstlicher Intelligenz allzu strikt mit Basismodellen umgehen, die auch die Grundlage von OpenAIs Text- und Bildgeneratoren sind.

Frühere Versuche sind gescheitert

Mit den Ankündigungen dieser Woche signalisiert OpenAI so seine Bereitschaft, der Gefahr selbst entgegenzutreten, die von seinen Werkzeugen ausgeht. Ob das auch gelingt, ist eine andere Frage: In der Vergangenheit ist OpenAI bereits einmal damit gescheitert, die Inhalte aus einen eigenen Generatoren verlässlich zu erkennen. Einen Detektor, der Texte aus ChatGPT von menschlichen Texten unterscheiden sollte, hat das Unternehmen vergangenen Sommer beerdigt: Die Erkennungsquote war zu schlecht.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

OZG-Vermittlungsausschuss: Länder fordern mehr Einfluss und mehr Geld

8. Mai 2024 - 14:51

Der Bundesrat hat das Onlinezugangsgesetz 2.0 im März abgelehnt. Eine Einigung soll nun der Vermittlungsausschuss bringen. Vor der ersten Sitzung Mitte Mai bekräftigen die Länder ihre Forderungen nach mehr Einfluss sowie nach einer stärkeren finanziellen Beteiligung des Bundes.

Wie es mit dem OZG 2.0 weitergeht, entscheidet sich im Vermittlungsausschuss. (Symbolbild) – Gemeinfrei-ähnlich freigegeben durch unsplash.com Meer: Unsplash/Jakob Owen; Deutschlandkarte: Wikipedia/David Liuzzo; Münze: Wikipedia/Gerd Seyffert; Hände: Unsplash/Mil Weiler/Marek Studzinski/Serge Kutuzov; Montage: netzpolitik.org

Ein Schrank voller Akten, stapelweise Mappen auf dem Schreibtisch, daneben händisch ausgefüllte Formulare, die als eingescannte PDFs ins Postfach wandern – so sieht der Alltag in vielen Behörden aus. Mitarbeiter:innen in der öffentlichen Verwaltung müssen sich nach wie vor in Geduld üben, bevor sie vollumfänglich auf digitale Systeme setzen und Bürger:innen, Unternehmen und Organisationen deren Leistungen online beantragen können.

Die lahmende Verwaltungsdigitalisierung soll ein Gesetz seit nunmehr sieben Jahren beschleunigen. Das Onlinezugangsgesetz (OZG) trat 2017 in Kraft und verpflichtet Bund, Länder und Kommunen dazu, knapp 600 Verwaltungsleistungen für Bürger:innen, Unternehmen und Organisationen online anzubieten. Laut Gesetz sollte dies bis Ende 2022 erfolgen. Die Frist ist längst verstrichen und eine neue Version des Gesetzes liegt nun seit einigen Monaten auf dem Tisch.

Doch das OZG 2.0 hat einen schweren Stand. Zuerst zogen sich die Verhandlungen der Regierungsparteien über Jahre hin, bevor der Bundestag im Februar das Gesetz endlich verabschiedete. Im März folgte dann aber bereits der nächste Dämpfer: Der Bundesrat lehnte das OZG 2.0 ab und stoppte das Gesetzgebungsverfahren damit kurz vor der Ziellinie.

Länder wollen mehr mitreden

Vor allem die unionsgeführten Länder stimmten gegen das Vorhaben – obwohl die Ampel nicht nur die Verbesserungsvorschläge von Sachverständigen in die neue Fassung, sondern auch zahlreiche Forderungen der Länder aufnahm. So können die Länder laut Gesetz weiterhin Elster für die Identifizierung und Authentifizierung verwenden. Die Plattform haben Bund und Länder unter Federführung Bayerns entwickelt, um die Steuererklärungen der Bürger:innen und Unternehmen online einzuholen. Ursprünglich wollte der Bund, dass das Nutzerkonto Bund – kurz BundID – Elster vollständig ablöst.

Vor allem aber adressiert das Gesetz eines der Hauptprobleme der Verwaltungsdigitalisierung: den Flickenteppich digitaler Verwaltungsleistungen von Bund, Länder und Kommunen. Das OZG 2.0 sieht fortan einheitliche Standards und offene Schnittstellen vor. Eben das ist aber der Stein des Anstoßes. Denn die Standards sollen zwar zunächst nur für Bundesleistungen gelten. Die Zuständigkeit, diese festzulegen, liegt aber allein beim Bundesinnenministerium (BMI). Das muss das Ländergremium des IT-Planungsrates lediglich über seine Beschlüsse informieren.

Die passive Rolle des IT-Planungsrates im neuen Gesetz zeige, dass der Bund keine umfassende Standardisierungsstrategie anstrebe, „die alle relevanten Beteiligten aus Verwaltung und Privatwirtschaft angemessen einbezieht“, sagt Reinhard Sager vom Deutschen Landkreistag (DLT) in einer Pressemitteilung. Laut Kay Ruge (DLT) sei der Bund nicht zu Zugeständnissen bereit gewesen.

Das liebe Geld

Nach der Ablehnung im Bundesrat rief der Bund auf Drängen der Innenministerin Nancy Faeser (SPD) am 10. April den Vermittlungsausschuss an. Die erste Sitzung ist für Mitte Mai vorgesehen, der genaue Termin steht noch nicht fest. Ob Bund und Länder das OZG 2.0 noch gemeinsam in dieser Legislaturperiode verabschieden werden und wie das Gesetz konkret aussehen wird, ist derzeit offen. Das hängt unter anderem davon ab, wie weit die Forderung der Länder geht, die Standards mitzugestalten.

So hält Ruge gegenüber netzpolitik.org eine Einigung im Vermittlungsausschuss nur dann für möglich, „wenn bei der Setzung von Standards für die Digitalisierung auch die Rechte der Länder gewahrt werden.“ Doch die Einigung hängt auch an einem weiteren Punkt: Der Bund müsse die Folgekosten des OZG 2.0 auch mit eigenen finanziellen Beiträgen begrenzen, so Ruge.

Wie sehr die Kosten mit der Umsetzung des OZG 2.0 ansteigen werden, sei laut Schleswig-Holsteins Digitalisierungsminister Dirk Schrödter (CDU) kaum einzuschätzen. Fest stehe aber, dass sie vor allem Länder und Kommunen belasten werde. Die trügen die Hauptumsetzungslast, begründet Florian Herrmann (CSU) aus Bayern die Ablehnung seines Landes im Bundesrat.

Die Länder hätten zum Teil schon viel in die Digitalisierung der öffentlichen Verwaltung investiert. Das OZG 2.0 mache vieles davon zur Makulatur, kritisiert Schrödter. Schleswig-Holstein etwa habe seine Hausaufgaben erledigt. „Dafür dürfen wir nicht bestraft werden“, so der Landesminister.

FDP verweist auf Schuldenbremse

Der Forderung nach finanzieller Unterstützung erteilt jedoch nicht zuletzt die FDP eine klare Absage. Die Liberalen verweisen ebenso wie die Union auf die Schuldenbremse. Für die Digitalisierung der öffentlichen Verwaltung sieht der Bundeshaushalt für 2024 nur noch 3,3 Millionen Euro vor. Zum Vergleich: Im vergangenen Jahr veranschlagte die Bundesregierung dafür 377 Millionen Euro.

Während die Länder ihre Forderungen öffentlich äußern, hält sich der Bund im Vorfeld der ersten Ausschusssitzung zurück. Eine Presseanfrage an das BMI dazu, wie eine Einigung zwischen Bund und Ländern aussehen könnte, bleibt unbeantwortet. Aus dem Büro des Bundestagsabgeordneten Lars Zimmermann (SPD) heißt es, man wolle sich nicht zum laufenden Verfahren äußern.

Die grüne Innenpolitikerin Misbah Khan findet derweil klare Worte: „Ich gehe davon aus, dass allen beteiligten Akteuren, aus der Opposition und den Ländern, die Bedeutung der Reform ebenfalls bewusst ist und sich dieses Verfahren nicht für parteitaktische Spielereien eignet“, sagt sie gegenüber netzpolitik.org. Das OZG sei enorm wichtig, damit die digitale Transformation der öffentlichen Verwaltung gelingt.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Mobilitätsdatengesetz: Reisebuchung mit verschiedenen Verkehrsmitteln soll leichter werden

8. Mai 2024 - 12:40

Reisen über Länder und Verkehrsmittel hinweg zu planen, ist heute immer noch sehr kompliziert. Das neue Mobilitätsdatengesetz soll Abhilfe schaffen und dazu führen, dass vom Fahrplan des lokalen Busunternehmens über den E-Roller bis zur Ladestation die Daten ausgetauscht und vernetzt werden können.

Die Mobilitätsdaten sollen in Zukunft über verschiedene Verkehrsmittel hinweg fließen. – Alle Rechte vorbehalten IMAGO / Arnulf Hettrich

Das Verkehrs- und Digitalministerium von Volker Wissing (FDP) hat laut einem Bericht von Tagesspiegel Background (€) mit leichter Verspätung den Gesetzentwurf für ein Mobilitätsdatengesetz vorgelegt. Idee des Gesetzes ist eine bessere Vernetzung von Mobilitätsdaten. So soll mit dem Gesetz unter anderem die „Kleinstaaterei“ beendet werden, bei der Nutzer:innen bei einer Reise von A nach B für verschiedene Transportmittel vom E-Roller über Zug bis zum Taxi verschiedene Dienste, Apps und Tickets nutzen müssen.

„Indem wir mehr und bessere Mobilitätsdaten zur Verfügung stellen, werden multimodale Reise und Echtzeit-Verkehrsinformationsdienste nicht nur ermöglicht, sondern auch deren Buchung und Bezahlung“, sagt Ben Brake, Leiter der Abteilung Digital- und Datenpolitik im BMDV zu Tagesspiegel Background.

In welcher Form die Mobilitätsdaten dann geteilt werden sollen, legt der Gesetzentwurf laut Background allerdings nicht fest. Auf Vorgaben wolle das Verkehrs- und Digitalministerium (BMDV) verzichten, weil sich aufgrund des technischen hin Fortschritts schnell Änderungen ergeben könnten. Stattdessen soll in Zukunft ein „Bundeskoordinator“ diese Frage regeln. Laut dem Bericht soll dieser Bundeskoordinator Leitlinien erlassen, welche die Spezifikationen, Standards, Anforderungen und Formate der Daten festlegen sowie die Zusammenarbeit zwischen den Dateninhabern und den Datennutzern regeln.

Koordinationsstelle geplant

Diese Koordination der Mobilitätsdaten soll in Zukunft die Bundesanstalt für Straßenwesen (BASt) übernehmen und bekommt dafür laut Entwurf offenbar 22 Stellen zugesprochen. Bei der BASt liegt auch der von der EU vorgeschriebene Nationale Zugangspunkt für Mobilitätsdaten. Aufgabe der Bundesanstalt wird laut dem Bericht zudem sein, „national und international tätige Dateninhaber von Mobilitätsdaten zur Datenbereitstellung“ anzuregen und zu erklären, wie die Bereitstellung funktioniert. Zudem soll die BASt auch Beschwerden über Qualität und Rechtskonformität der Daten entgegennehmen. Eine Aufgabe, die man eher bei einer kontrollierenden Stelle erwartet hätte. Personenbezogene Daten sind laut dem Gesetzentwurf vom Teilen ausgeschlossen.

Damit die Unternehmen wirklich Daten zur Verfügung stellen, soll es in Zukunft auch Strafen geben. Diese fallen allerdings laut dem Entwurf mit „bis zu 10.000 Euro“ eher gering aus. Die Kontrolle und Aufsicht über die Daten soll beim Bundesamt für Logistik und Mobilität (BALM) angesiedelt sein, das allerdings nur vier Stellen für diese Aufgabe erhält. Dem BALM kommt die Aufgabe zu, Bußgelder „als äußerstes Mittel“ zu verhängen.

Laut dem Medienbericht wird das Gesetz frühestens Ende 2024 oder Anfang 2025 in Kraft treten. Bis alles eingerichtet ist und die Vorgaben für Bußgelder stehen, dürfte es allerdings 2026 werden.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Biometrische Suchmaschine: Londoner Polizei soll tausendfach PimEyes aufgerufen haben

7. Mai 2024 - 16:28

Auch in London darf die Polizei die umstrittene Gesichter-Suchmaschine PimEyes nicht nutzen. Dennoch sollen Beamt:innen die Seite mehr als 2.000 Mal aufgerufen haben. Jetzt hat die Behörde den Zugriff über Dienstgeräte gesperrt.

Die Metropolitan Police: nicht nur auf den Straßen Londons unterwegs, sondern auch auf den Seiten von PimEyes. – Alle Rechte vorbehalten Imago / Mike Egerton

Die Londoner Polizei soll mehr als 2.000 Mal die Seite der Suchmaschine PimEyes aufgerufen haben. Das berichtet das britische Nachrichtenmedium i-News und verweist auf Dokumente, die es mit Hilfe einer Informationsfreiheitsanfrage erhalten hat. Demnach hätten Dienstcomputer der Behörde in den ersten drei Monaten des Jahres 2.337 die Seite von PimEyes besucht.

Mit der Suchmaschine kann man anhand eines Fotos im offenen Internet nach weiteren Bildern dieser Person suchen. Sie ist hoch umstritten, weil die Suche auf biometrischen Daten basiert. Dafür werden offen im Internet verfügbare Fotos automatisch ausgewertet – ohne eine Zustimmung der Betroffenen einzuholen. Zugleich ist PimEyes öffentlich zugänglich, sodass damit jede beliebige Person andere anhand eines Schnappschusses identifizieren kann. Denn die Suchergebnisse von PimEyes sind Links zu den Fundorten im Netz, die häufig entscheidende Hinweise auf eine Person liefern.

Die Europäische Union hat deswegen in ihrer KI-Verordnung vor kurzem genau das verboten, was PimEyes überhaupt erst möglich macht: massenhaft Gesichtsbilder aus dem offenen Internet zu sammeln und zum Aufbau einer Datenbank biometrisch auszuwerten. PimEyes könnten in der EU damit hohe Strafen drohen, sobald die Regeln umgesetzt werden.

Londoner Polizei redet Zugriffe klein

Die Londoner Polizei setzt bereits mehrere Formen von Gesichtserkennung ein, etwa um Aufnahmen aus öffentlichen Kameras in Echtzeit auszuwerten oder rückwirkend mit ihren Datenbanken abzugleichen.

Allerdings müssen Beamt:innen dafür den offiziellen Weg beschreiten: Gesucht werden darf nur nach Personen auf Fahndungslisten und auch nur in der nationalen Polizeidatenbank (Police National Database, PND). Dabei handelt es sich um eine zentrale Datenbank mit Bildern von Straftäter:innen, die von Behörden im ganzen Land hochgeladen und vom Innenministerium verwaltet werden.

In welcher Welt wollen wir leben?

Mit PimEyes könnten die Beamt:innen hingegen im offenen Internet nach Zielpersonen suchen. Und das, ohne dass diese Suchen von Vorgesetzten abgesegnet werden müssten.

Ein Sprecher der Londoner Polizei sagte gegenüber i-News, die Aufrufe der Website würden noch nicht heißen, dass Beamt:innen die Gesichtersuche auch tatsächlich eingesetzt hätten. „Es gibt eine Reihe von Gründen, warum ein Beamter nachforschen könnte, was PimEyes ist, insbesondere im Lichte der jüngsten Presseberichte.“ Nachdem die Zugriffe bekannt geworden seien, habe man „die bestehenden Sicherheitsvorkehrungen verschärft und den Zugang zu dieser Website auf Met-Geräten gesperrt“. Offiziell soll die Suche mit PimEyes ohnehin nicht erlaubt gewesen sein.

PimEyes: Bilder entfernen lassen gegen Zahlung

PimEyes wurde ursprünglich von zwei polnischen Studierenden gegründet. Nach kritischen Berichten unter anderem von netzpolitik.org verlagerte die Firma ihren Sitz zunächst auf die Seychellen und antwortete nicht mehr auf Fragen. Auch Datenschutzbehörden wurden aktiv.

Seit 2022 gehört PimEyes nun einem Sicherheitsforscher aus Georgien: Georgi Gobronidze. Er bemüht sich, das Image des Unternehmens zu wandeln und vermarktet PimEyes als Hilfe zur digitalen Selbstverteidigung statt als Stalking-Werkzeug. Frauen sollen damit Bilder aus dem Netz entfernen lassen können, die ohne ihr Einverständnis hochgeladen wurden. Für diesen „Premium-Service“ nimmt PimEyes eine monatliche Gebühr.

„Der Mensch ist der Stalker, nicht die Suchmaschine“

In Deutschland war die Suchmaschine zuletzt in den Schlagzeilen, weil Journalist:innen mit ihrer Hilfe eine Spur zur seit Jahrzehnten gesuchten ehemaligen RAF-Terroristin Daniela Klette entdeckt hatten. Polizeigewerkschaften forderten daraufhin, auch die Polizei solle „solch hilfreiche Software“ einsetzen dürfen und monierten, „Polizeibehörden in anderen EU-Nachbarstaaten“ seien bereits weiter.

Allerdings nutzen auch deutsche Polizeibehörden bereits seit langem Gesichtserkennung, etwa das „Gesichterkennungssysten“ des BKA, das Bilder mit Aufnahmen bekannter Straftäter:innen in der eigenen Datenbank INPOL abgleicht. Dass die Polizei hingegen mit Suchmaschinen wie PimEyes wahllos nach Gesichtern im Internet sucht, ist laut der Einschätzung von Fachleuten nicht mit Grundrechten vereinbar. Dabei würden massenhaft Unverdächtige ins Visier geraten.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Hackbacks: Zurückhacken ist keine Verteidigung

7. Mai 2024 - 15:00

Die Regierung hat sich im Koalitionsvertrag von Hackbacks klar distanziert, doch aus der CDU und von Ex-Geheimdienstlern kommt aktuell die Forderung nach digitaler Eskalation. Dabei verdreht Ex-BND-Chef Schindler die Tatsachen und stellt das Zurückhacken als Abwehr dar. Doch ein Hackback ist ein Gegenangriff und damit eine offensive Angriffsmaßnahme. Ein Kommentar.

Hacker bei der Arbeit (Symbolbild). – CC-BY-NC 2.0 Brian Klug

Seit die Bundesregierung nach einem IT-Angriff auf SPD-E-Mails dafür Russland verantwortlich gemacht hat, fordern sowohl Außenministerin Annalena Baerbock als auch Unionspolitiker Konsequenzen nach dem Hack. Während Baerbock nicht benennt, welche weiteren Konsequenzen neben dem Abzug des Botschafters aus Moskau noch folgen sollen, wird in der Union die alte Debatte um offensive IT-Gegenangriffe aufgewärmt.

Der CDU-Verteidigungspolitiker Roderich Kiesewetter, Oberst a.D. und Ex-Präsident des Reservistenverbandes, und der Ex-Geheimdienstchef und heutige Berater Gerhard Schindler gehören zu den prominentesten Vertretern, die nun wieder mehr Massenüberwachungsmaßnahmen und offensive IT-Angriffe aus Deutschland heraus fordern. Schindler möchte für die Geheimdienste die Erlaubnis zur „strategischen Kommunikationsaufklärung im Inland“, ein Euphemismus für das automatisierte Durchleuchten sämtlicher Telekommunikationsdaten innerhalb Deutschlands.

Statt einer „Überwachungsgesamtrechnung“, die von der Bundesregierung geplant ist, solle besser eine „Bedrohungsgesamtrechnung“ erstellt werden, sekundiert ihm Kiesewetter. Er erklärte, die aktuellen IT-Angriffe würden zeigen, dass Deutschland ein „Kriegsziel“ Russlands sei, wie er dem ZDF sagte. Deswegen wünscht er sich auch, dass deutsche Geheimdienste die Erlaubnis zu sogenannten Hackbacks erhalten sollen. Er sagte: „Wir müssen auch IT-technisch gegeneskalieren.“

Doch diese Eskalation verstößt gegen geltendes Recht und soll es gerade nicht geben: Die Ampelregierung hatte im Koalitionsvertrag diesen Hackbacks eine Absage erteilt, auch in der nationalen Sicherheitsstrategie positioniert sich die Regierung dagegen. Der Koalitionsvertrag sagt klar: „Hackbacks lehnen wir als Mittel der Cyberabwehr grundsätzlich ab.“ Dafür gibt es gute Gründe, die vor allem in der Natur digitaler Angriffe liegen.

Denn was ist ein „Hackback“? Wörtlich meint es Zurückhacken, im übertragenen Sinne also einen Gegenschlag ausführen. Und für einen Gegenschlag braucht man vor allem einen sichtbaren und greifbaren Gegner. Die hinreichend sichere Feststellung, wer hinter einem ausgefeilten IT-Angriff steckt, ist aber keine leichte, sie ist manchmal auch gar nicht möglich, und sie dauert aufgrund des Nachvollziehens des Angriffsweges auch oft längere Zeit. Und die Gefahr, beim Hackback den Falschen zu erwischen, ist auch nicht wegzudiskutieren. Die Vorstellung von Nicht-Technikern, die Hacken nur aus Vorabendserien kennen, dass man mal eben einem Angreifer durch Zurückhacken das Handwerk legen könnte, ist schlicht ausgemachter Unsinn. Das zeigt auch gerade der aktuelle SPD-E-Mail-Vorfall, dessen Untersuchung viele Monate in Anspruch nahm.

Denkt man an kriegerische Auseinandersetzungen im physischen Raum, mag ein solches Vorgehen nachvollziehbar sein: Du beschießt mich, ich schieße zurück. Wenn ich allerdings nicht gesichert herausfinden kann, wer auf mich schießt, dann wird es kompliziert. Im Digitalen ist das der Normalfall: So gut wie kein Angreifer ist sofort sicher auszumachen. Zudem sind keine abgrenzbaren zivilen und militärischen Räume vorhanden, denn das Schlachtfeld wären unsere zivilen Netze.

Ex-BND-Chef Schindler geht also kategorisch fehl und verdreht die Tatsachen, wenn er in einem aktuellen Interview für Hackbacks trommelt und dabei behauptet, Hackbacks seien „ein Mittel, um Cyberangriffe abzuwehren“.

Denn ein solcher Gegenangriff ist eine klar offensive Maßnahme. Eine Abwehr eines Angriffs bestünde darin, den Angreifer daran zu hindern, seinen Angriff fortzusetzen und Schaden von sich selbst fernzuhalten. Diesen Unterschied kennt natürlich auch der Ex-Geheimdienstler. Die Falschdarstellung dient dem Zweck, das offensive Zurückhacken zu verniedlichen und eben als bloße Abwehrmaßnahme hinzustellen.

„Wir müssen alle unsere IT in Ordnung bringen“

Jeder IT-Angriff muss zuallererst gut untersucht und die Eintrittswege der Angreifer nachvollzogen werden, um weitere Angriffe zu verhindern und die oft sabotierten und dysfunktionalen Computersysteme wieder so an den Start zu bringen, dass nicht gleich der nächste Angriff ins Haus steht. An jedem einzelnen Tag im Jahr finden derart viele IT-Angriffe statt, dass man von einer IT-Sicherheitskrise sprechen muss und es nicht mal mehr gemeldet wird, wenn der Schaden nicht enorm groß ist.

Eigentlich müssten angesichts dieses für Wirtschaft, Behörden und Private ausgesprochen bedrohlichen Zustandes Sofortmaßnahmenpläne umgesetzt werden, die der Bedeutung von sicheren IT-Systemen für uns alle angemessen wären. Die BSI-Chefin Claudia Plattner brachte es nach dem Bekanntwerden der jüngsten Angriffe auf den Slogan: Wir müssen alle unsere IT in Ordnung bringen.

Das ist zweifellos richtig, aber man möchte den Nachsatz hinzufügen, dass dies eine wahre Mammutaufgabe ist, die politisch flankiert werden müsste. Aber wirklich das letzte, was die ohnehin desolate Gesamtsituation in der IT-Sicherheit jetzt braucht, sind auch noch deutsche Geheimdienste und Militärs, die ihre Cyberwaffen laden und sich im Zurückhacken versuchen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Jetzt Trailer hören: Podcast „Systemeinstellungen“ erscheint ab 10. Mai

7. Mai 2024 - 14:07

Hausdurchsuchung! Handy her! Was passiert mit Menschen, die unerwartet ins Visier des Staates geraten? In „Systemeinstellungen“ erzählen Betroffene, wie sich ihr Leben schlagartig verändert. Ein Podcast über Ohnmacht und erschüttertes Vertrauen.

netzpolitik.org startet einen neuen Doku-Podcast. Sieben Folgen, immer freitags, ab dem 10. Mai. – CC-BY-NC-SA 4.0 Lea Binsfeld/netzpolitik.org


https://netzpolitik.org/wp-upload/2024/05/Systemeinstellungen_Trailer_final_v1_240506.mp3

Wenn die Polizei plötzlich an deine Tür hämmert und ruft: Hausdurchsuchung! Was tun? In unserem neuen Podcast „Systemeinstellungen“ erzählen wir die Geschichten von Menschen, die unerwartet ins Visier des Staates geraten. Wir treffen unter anderem eine 15-jährige Klima-Aktivistin, die sich vor der Polizei bis auf die Unterwäsche ausziehen muss. Einen Soziologen, dessen Familie monatelang überwacht wird. Eine engagierte Pfarrerin auf dem Land, die ihre Kirche für Geflüchtete in Not öffnet und plötzlich die Polizei im Pfarrhaus hat.

Sie alle haben unterschiedliche Hintergründe, aber eines gemeinsam: den Schock, als plötzlich Beamt*innen ihre Schlafzimmer, ihre Handys, ihr privates und dienstliches Leben durchsuchen. Die erste von sieben Episoden, „Link-Extremismus“, erscheint am Freitag, 10. Mai. Ab dann folgt jede Woche eine weitere Episode – überall, wo es Podcasts gibt.

Den Trailer gibt es schon jetzt, hier im eingebetteten Player auf der Seite oder zum Download als MP3. Für diesen Podcast gibt es auch ein vollständiges Transkript mit Zeitmarken im WebVTT-Format.

Abonniere den Podcast, wo und wie es Dir gefällt:

  • Host und Produktion: Serafin Dinges
  • Redaktion: Anna Biselli, Chris Köver, Ingo Dachwitz, Sebastian Meineck
  • Cover-Design: Lea Binsfeld
  • Titelmusik: Daniel Laufer
  • Kontakt: podcast@netzpolitik.org

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Neues aus dem Fernsehrat (105): ARD und ZDF präsentieren StreamingOS auf Open-Source-Basis

6. Mai 2024 - 11:26

Die Zusammenführung der Entwicklung ihrer Mediathek-Software unter dem Titel „Streaming OS“ nutzen ARD und ZDF auch dazu, diese Open Source zu machen. Neben den üblichen Vorteilen von Freier und Open-Source-Software sind damit auch spezifische Vorteile für öffentlich-rechtliche Medien verbunden.

ARD und ZDF rücken im Internet näher zusammen, auf Basis von offen lizenzierter Software – Alle Rechte vorbehalten ZDF

Hier bei netzpolitik.org gibt es eine eigene Kolumne zum Thema „Öffentliches Geld – Öffentliches Gut!“. Wechselnde Autor:innen gehen dabei der Frage nach, wo mit öffentlichen Mitteln finanzierte, digitale Güter mithilfe von freien Lizenzen zu digitalen Gemeingütern gemacht werden. Ganz besonders einleuchtend ist das bei öffentlich finanzierter Software-Entwicklung: Hier sollten freie Open-Source-Lizenzen längst der Normalfall sein, auch weil es Herstellerabhängigkeiten und Parallelentwicklungen reduziert sowie regionale Software-Wirtschaft fördert.

In der Realität passiert der Umstieg auf Freie und Open-Source-Software selten im großen Stil, auch wenn immer mehr Open-Source-Komponenten zur Anwendung kommen. Das gilt auch für den Bereich öffentlich-rechtlicher Medien, wo im Zuge der Digitalisierung immer größere Beträge in Softwareentwicklung und -beschaffung fließen. Auch dort kommt natürlich längst an verschiedenen Stellen Open-Source-Software zum Einsatz. Allein die BBC listet auf einer eigenen Seite über 40 Open-Source-Projekte.

„OS“ steht für „Operating System“, aber auch für „Open Source“

Trotzdem ist die heutige gemeinsame Ankündigung von ARD und ZDF, ihre Mediathekentwicklung auf Open-Source-Basis zusammenzuführen, ein bemerkens- und begrüßenswerter Schritt. In der Pressemeldung zum Projekt mit dem Namen „Streaming OS“ ist von einer „der größten Open Source-Initiativen in Deutschland“ die Rede. Die Abkürzung OS steht dabei zwar für „Operating System“, die Doppeldeutigkeit der Abkürzung wird aber sicher gern in Kauf genommen.

Interessant an der Ankündigung ist auch die organisatorische Umsetzung. So soll das Projekt „von einem gemeinsamen, schlank besetzten ‚OS-Office'“ gesteuert werden, zusätzlich aber für den Mediathek-Betrieb eine gemeinsamen Tochterfirma gegründet werden. Dieser Schritt entspricht ziemlich genau einer Empfehlung des von den Ländern eingerichteten „Zukunftsrats“. In dessen Gutachten hieß es:

ARD, ZDF und Deutschlandradio gründen eine gemeinsame, rechtlich verselbstständigte Gesellschaft für die Entwicklung und den Betrieb einer technologischen Plattform, die alle Technologien für digitale Plattformen und Streaming vereinheitlicht und betreibt.

Spezifische Open-Source-Vorteile für öffentlich-rechtliche Medien

Auch ich habe mich seit Jahren dafür ausgesprochen, die Mediathekentwicklung auf ein solides Open-Source-Fundament zu stellen (beispielsweise auf der re:publica 2019, gemeinsam mit Jan-Hendrik-Passoth im Tagesspiegel oder in meiner Rede zum Otto-Brenner-Preis 2023). Neben den bereits angesprochenen, allgemeinen Vorteilen von Open-Source-Software und der besonderen Sinnhaftigkeit bei öffentlicher Finanzierung gibt es aber auch noch weitere Gründe, warum es gerade für öffentlich-rechtliche Medien so sinnvoll ist, Open Source zu forcieren:

  • Open Source als Public Value jenseits des Programms: Zentrale Aufgabe öffentlich-rechtlicher Medien ist es, „Public Value“, also gesellschaftlichen Nutzen zu stiften. Die Open-Source-Initiative von ARD und ZDF belegt, dass das nicht nur in Form von Public-Value-Programmen möglich ist, sondern auch durch Investitionen in digitale Gemeingüter wie eben Open-Source-Software.
  • Open Source als Unterstützungs- und Kooperationsangebot an private Medien: Verbunden damit sind auch Potenziale zur Stärkung des Medienstandorts Deutschland. Viele Komponenten digitaler Medienangebote sind über verschiedene Anbieter hinweg gleich, werden aber trotzdem parallel entwickelt. Für private Medienhäuser bietet der Einsatz von (Teilen von) Streaming OS die Möglichkeit für Kosteneinsparungen in Bereichen, die nicht wettbewerbsdifferenzierend sind.
  • Open Source als unilaterale Europäisierung: Vor allem aber ist Streaming OS auch eine Einladung an andere öffentlich-rechtliche Medien in Europa, mit einzusteigen. Allerdings ohne, dass vorab in langen Meetings ein (ohnehin unrealistisches) gemeinsames Softwareprojekt definiert wird. Stattdessen ist Streaming OS ein Angebot zur Kooperation, ohne sich völlig in wechselseitige Abhängigkeiten zu begeben. Im Zweifel erlauben es Open-Source-Lizenzen immer, auf Basis des bislang gemeinsam entwickelten Codes getrennte Wege zu gehen.

Zusammengefasst ist es also überaus erfreulich, dass es ARD und ZDF nicht dabei belassen, die Entwicklung ihrer Mediathek-Software unter einem Dach zusammenzulegen, sondern diesen Schritt dazu nutzen, auf Open Source zu setzen. Die ohnehin notwendigen Änderungen und Neuentwicklungen bieten dafür das perfekte Gelegenheitsfenster. Bleibt zu hoffen, dass viele andere öffentlich-rechtliche Medien in Europa, allen voran die Schweizer SRG und der Österreichische ORF, auf den Open-Source-Zug aufspringen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Italienische „Postkarten-Steuer“: Gemeinfreie Werke unter Gebührenzwang

5. Mai 2024 - 8:04

Nach dem italienischen Kulturgüterschutzgesetz ist eine spezielle Verwaltungsabgabe zu zahlen, wenn historische Gebäude und Kunstwerke abgebildet werden. Ein Urteil des Stuttgarter Landgerichts hat den kuriosen Gebührenforderungen nun endlich Grenzen gesetzt. Und das Kulturministerium in Rom ergänzte die Vorschrift immerhin um Ausnahmen für die Wissenschaft.

Der vitruvianische Mensch von Leonardo da Vinci (ca. 1490)

Seit dem Jahr 2004 enthält das italienische Kulturgüterschutzgesetz eine weltweit wohl einzigartige Vorschrift: Wer die Abbildung eines historischen Gebäudes oder Kunstwerks nutzen möchte, das zum Kulturerbe Italiens gezählt wird, muss dafür eine Abgabe zahlen. Das kann das Foto des römischen Kolosseums in einem Buch oder die Abbildung von Botticellis „Geburt der Venus“ auf einer Webseite sein. Die Regelung entspricht einer Lizenzgebühr – ungeachtet der Tatsache, dass der urheberrechtliche Schutz der verwendeten Werke freilich längst abgelaufen ist.

Die seltsame Norm fristet in der Praxis bislang ein Schattendasein. Vielen Nutzer:innen ist die Zahlungspflicht völlig unbekannt. Und die zuständigen staatlichen Kulturinstitutionen treiben die Gebühr nur äußerst selten ein. Einige prominente Fälle sind jedoch jedoch öffentlich geworden und zeigen, wie absurd die Regelung ist.

Deshalb gibt es an der Regelung auch vielstimmige Kritik. Insbesondere seitdem die Europäische Union 2019 das Recht zur freien Nutzung von Abbildungen gemeinfreier Kunstwerke anerkannt hat (in Art. 14 der DSM-Richtlinie), fordert unter anderem die Organisation Communia, die Vorschrift aufzuheben.

Auch der italienische Rechnungshof kritisiert die „Postkarten-Steuer“

Zu den prominentesten Kritikern der Regelung gehört überraschenderweise der italienische Rechnungshof. Im vergangenen Jahr plante das italienische Kulturministerium, neue Gebühren-Mindestsätze einzuführen. Der Rechnungshof kritisierte daraufhin, dass die „Postkarten-Steuer“ den erklärten Bemühungen des italienischen Staates entgegenlaufe, Open Access zu fördern. Auch liege der freie Zugang zu digitalen Kulturgütern im wirtschaftlichen Interesse Italiens. Darüber hinaus verkenne die Gebührenpflicht „operative Besonderheiten des Internets“, also den kulturellen Wert, den das Teilen von Inhalten im Netz hat.

Eine Vielzahl von Verbänden und Organisationen schloss sich der Kritik an, darunter auch Wikimedia Italia. In der Wikipedia finden sich abertausende Fotos des reichen italienischen Kulturerbes – auch dank des großen Erfolgs des alljährlichen Fotowettbewerbs „Wiki Loves Monuments“. Wegen der bestehenden Rechtsunsicherheit kann dieser Wettbewerb in Italien nur mit erheblichem bürokratischem Aufwand durchgeführt werden.

Die Diskussion um die Vorschrift nimmt mitunter auch absurde Auswüchse an. So untersagte ein italienisches Gericht der Männerzeitschrift GQ im März 2023, ein Model in der Pose von Michelangelos „David“ auf dem Titelblatt abzubilden. Auch große italienischen Tageszeitungen griffen das Thema auf.

Ravensburger gewinnt im Puzzle-Streit

Im vergangenen Jahr schwappte die Debatte dann nach Deutschland. Ein staatliches Museum in Venedig hatte zunächst in Italien Klage gegen den Spieleverlag Ravensburger erhoben. Das schwäbische Unternehmen hatte die weltberühmte Zeichnung des „Vitruvianischen Menschen“ von Leonardo da Vinci aus dem 15. Jahrhundert auf einem Puzzle abgebildet.

Die venezianischen Gerichte gaben dem Museum Recht und verhängten gegen das Puzzle sogar einen weltweiten Verkaufsstopp. Dagegen erhob Ravensburger Klage vor dem Landgericht Stuttgart. Der Verlag wollte feststellen zu lassen, dass die Vergütungspflicht nur innerhalb Italiens besteht.

Das Verfahren erfuhr hierzulande nur wenig Aufmerksamkeit, hat aber große wirtschaftliche und praktische Bedeutung. Potenziell könnte eine große Zahl an Produkten in den Anwendungsbereich der italienischen Vorschrift fallen – von kunsthistorischen Nachschlagewerken bis zu alltäglichen Designs, die von italienischer Kunst inspiriert sind. Ravensburger allein vertreibt zahlreiche Produkte mit Motiven aus dem italienischen Kulturerbe. Bislang hat der Verlag jedoch nur den Vertrieb des von der Klage erfassten Puzzles eingestellt.

Im März dieses Jahres verkündete das Landgericht Stuttgart seine Entscheidung. Demnach kann die „Postkarten-Steuer“ im Ausland nicht geltend gemacht werden, da das italienische Kulturgüterschutzgesetz aufgrund des sogenannten Territorialitätsprinzips nur innerhalb Italiens Anwendung findet. Die Gebührenforderungen müssen sich deshalb auf den Vertrieb innerhalb Italiens beschränken, so das Gericht (Az. 17 O 247/22).

Wie der SWR berichtete, ist der Rechtsstreit damit aber nicht beendet. Das italienische Museum hat gegen das Urteil Berufung eingelegt. Daher bietet Ravensburger das Puzzle bislang auch noch nicht wieder an. Fest steht aber schon jetzt: Auf dem italienischen Markt wird der Verlag das Produkt auch nach der Gerichtsentscheidung nur verkaufen können, wenn er auch die geforderte Gebühr bezahlt.

Ausnahmen für die Wissenschaft

Immerhin veranlasste die breite Kritik das italienische Kulturministerium im März dazu, die Gebührenvorschrift um Ausnahmen zu ergänzen. Demnach soll es fortan wenigstens zu wissenschaftlichen Zwecken erlaubt sein, italienische Kulturgüter kostenfrei abzubilden. Unternehmen wie Ravensburger wird das jedoch nur wenig helfen.

Anfang April kommentierte die Tageszeitung „Corriere della Sera“ das Stuttgarter Urteil und zitierte dabei den italienischen Kulturpolitiker Giuliano Volpe. Auf die Frage, ob das Gesetz nicht erforderlich sei, um das italienische Kulturerbe vor „unwürdigen“ Nutzungen zu schützen, entgegnete Volpe: „Schlechter Geschmack oder gar Vulgarität können nicht gesetzlich geregelt werden, dagegen muss man eher mit den Waffen der Kultur, der Bildung, aber auch der Ironie und Satire kämpfen.“ Mitunter münden solche Versuche des Gesetzgebers nämlich in Realsatire.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

KW 18: Die Woche, in der es wild zuging

3. Mai 2024 - 17:54

Die 18. Kalenderwoche geht zu Ende. Wir haben 13 neue Texte mit insgesamt 121.606 Zeichen veröffentlicht. Willkommen zum netzpolitischen Wochenrückblick.

– Fraktal, generiert mit MandelBrowser von Tomasz Śmigielski

Liebe Leser:innen,

heute ist Tag der Pressefreiheit und es steht nicht gut um sie. Laut Reporter ohne Grenzen haben sich die Bedingungen für journalistische Arbeit im vergangenen Jahr weltweit deutlich verschlechtert. Es gibt mehr Repression, mehr Zensur, mehr Überwachung. Alles andere als rosige Aussichten im Superwahljahr 2024, in dem rund die Hälfte der Weltbevölkerung dazu aufgerufen ist, wählen zu gehen.

Deutschland ist im Ranking ein paar Plätze nach oben gerückt. Das ist jedoch kein Grund zu größerer Freude. Zwar werden Journalist:innen hierzulande auf Demos seltener physisch angegriffen als im Vorjahr. Reporter ohne Grenzen geht jedoch weiterhin von einer hohen Dunkelziffer an Übergriffen aus. Vor allem aber verdankt sich das bessere Abschneiden dem Negativtrend in anderen Ländern.

Diesem Negativtrend will sich Europa offenkundig nicht verschließen. Am Dienstag weichte der Europäische Gerichtshof seine einst grundrechtsfreundliche Haltung zur Vorratsdatenspeicherung weiter auf. Die anlasslose Massenüberwachung ist demnach auch zulässig, um jegliche Art von Straftaten zu verfolgen – und sogar Urheberrechtsverletzungen.

Chloé Berthélémy vom Dachverband europäischer Digital-Rights-Organisationen (EDRi) sieht in dem EuGH-Urteil eine „traurige Wende“. Im politischen Kontext der zunehmenden Unterdrückung von Journalist:innen, Menschenrechtsverteidigern und der Zivilgesellschaft untergrabe das Gericht auf gefährliche Weise das Recht, online anonym zu bleiben, so die Expertin.

Bundesinnenministerin Faeser hingegen witterte umgehend Morgenluft. Der EuGH habe entschieden, so Faeser in einer Pressemitteilung, dass „eine Pflicht zur Speicherung von IP-Adressen zur Verbrechensbekämpfung nicht nur ausdrücklich zulässig ist, sondern auch zwingend erforderlich ist“. Der Zombie der anlasslosen Massenüberwachung ist damit in dieser Woche vollends auf die politische Bühne zurückgekehrt.

Wer angesichts solcher untoten Debatten etwas Positives sucht, sollte unseren Longread der Woche lesen. Die Gastautor:innen Maria Farrell und Robin Berjon plädieren darin für eine Verwilderung des Internets und damit für ein vielfältiges und selbstverwaltetes Netz jenseits der ummauerten Gärten der Tech-Giganten.

Habt ein wildes Wochenende!

Daniel

Bundesjustizministerium: Ein Jahr kein Digitale-Gewalt-Gesetz

Das Justizministerium will in seinem Eckpunkten zu einem Digitale-Gewalt-Gesetz auch Unternehmen schützen. Gerichtsentscheidungen machen deutlich, dass dieser Plan nicht mit dem Europarecht vereinbar ist. Ob und wann es zu einem Gesetz kommt, das Betroffene von digitaler Gewalt schützt, ist offen. Von Anne Roth –
Artikel lesen

Breakpoint: Hilfe, die Fundis kommen!

Bibelverse und Babywindeln statt Doppelbelastung und Dauerstress: Der Content der „Tradwives“ weckt die Sehnsucht nach einem entspannteren Leben. Soziale Medien werden so zum Sprachrohr einer reaktionären Bewegung. Von Carla Siepmann –
Artikel lesen

Mastodon: Gemeinwohlorientierte Digitalisierung braucht Unterstützung statt Steine im Weg

Das Finanzamt hat den Hauptentwicklern von Mastodon die Gemeinnützigkeit aberkannt. Wer Digitalisierung und digitale Souveränität vorantreiben will, sollte die Entwicklung von freier und offener Software als gemeinnützig anerkennen. Ein Kommentar. Von Markus Reuter –
Artikel lesen

Österreich: Ermittlungen gegen Bürgerrechtsorganisation wegen angeblichen Hackings

Immer wieder geraten Menschen oder Organisationen, die ethisch verantwortungsvoll Sicherheitslücken aufdecken, in den Fokus von strafrechtlichen Ermittlungen. Dieses Mal hat es Österreichs bekannteste Datenschutz-NGO epicenter.works erwischt. Die Ermittlungen wurden erst nach zwei Jahren eingestellt. Von Markus Reuter –
Artikel lesen

Civil Liberties Union for Europe: Medienbericht fordert besseren Schutz vor Staatstrojanern

Die EU brauche strengere Regeln beim Einsatz von Staatstrojanern, fordert die NGO Civil Liberties Union for Europe in einem Bericht zur europäischen Medienlandschaft. Außerdem nehme das Vertrauen in Medien insgesamt ab – auch in Deutschland, wo die Presse verhältnismäßig viel Glaubwürdigkeit genießt. Von Tomas Rudl –
Artikel lesen

Facebook und Instagram: EU-Kommission untersucht Desinformation und Drosselung politischer Inhalte

Kurz vor der Europawahl wird Meta verdächtigt, nicht genug gegen Desinformation zu tun. Die EU-Kommission befürchtet weitere Verstöße gegen den Digital Services Act, etwa erschwerten Datenzugang für Forscher:innen. Auch die Drosselung politischer Inhalte könnte regelwidrig sein. Von Maximilian Henning –
Artikel lesen

EuGH-Urteil zur Vorratsdatenspeicherung: „Traurige Wende beim Schutz der Privatsphäre“

Der Europäische Gerichtshof ändert seine bisher grundrechtsfreundliche Haltung zur Vorratsdatenspeicherung und erlaubt in einem Urteil die anlasslose Überwachung sogar bei Urheberrechtsverletzungen. Grundrechte-Organisationen sind entsetzt und sprechen von einer „Wende“. Von Markus Reuter –
Artikel lesen

EuGH-Urteil: Gericht lässt Massenüberwachung des Internets zu

Der EuGH hat gerade den massenhaften und automatisierten Zugriff auf IP-Adressen genehmigt. Mit dem heutigen Urteil räumt das Gericht ein, dass es seine Rechtsprechung ändern wird, wenn seine Urteile nicht umgesetzt werden. Ein Gastkommentar. Von Gastbeitrag –
Artikel lesen

Essay: Wir müssen zurück zum wilden Internet

Das Internet ist zu einer ausbeuterischen und fragilen Monokultur geworden. Aber wir können es renaturieren, indem wir die Lehren von Ökologen nutzen. Von Gastbeitrag, Maria Farrell, Robin Berjon –
Artikel lesen

Digitalpolitischer Rückblick: Fünf Jahre von der Leyen

Im Juni wählt Europa ein neues Parlament und bekommt auch eine neue EU-Kommission. Deren alte Präsidentin wird wahrscheinlich auch die neue sein: Ursula von der Leyen. Was hat die mächtigste Frau der Welt in den vergangenen fünf Jahren netzpolitisch erreicht? Wir prüfen ihre Versprechen. Von Maximilian Henning –
Artikel lesen

Reporter ohne Grenzen: Pressefreiheit verschlechtert sich weltweit

Die Pressefreiheit steht weiterhin unter Druck. In vielen Regionen haben sich die Arbeitsbedingungen für Journalist:innen verschlechtert. Reporter ohne Grenzen warnt im weltweiten Superwahljahr vor weiteren Repressionen. Von Markus Reuter –
Artikel lesen

SEO-Spam: Warum Google immer schlechter wird

Die Suche im Internet gestaltet sich immer schwieriger. Ein Grund dafür sind sogenannte Affiliate-Links, mit denen Website-Anbieter auf einfache Weise Geld verdienen. Gegen deren Suchmaschinenoptimierung sind Dienste wie Google Search oder Microsoft Bing offenbar machtlos. Von Nora Nemitz –
Artikel lesen

Überwachungstechnik: Polizei observiert mit Gesichtserkennung

Laut eigener Aussage nutzt die sächsische Polizei ein Gesichtserkennungssystem mit Echtzeit-Funktion. Einsätze erfolgen auch in Berlin. Dort macht der Senat erstmals technische Details bekannt. Von Matthias Monroy –
Artikel lesen

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Überwachungstechnik: Polizei observiert mit Gesichtserkennung

3. Mai 2024 - 17:50

Laut eigener Aussage nutzt die sächsische Polizei ein Gesichtserkennungssystem mit Echtzeit-Funktion. Einsätze erfolgen auch in Berlin. Dort macht der Senat erstmals technische Details bekannt.

Das offen arbeitende PerIS aus der Oberlausitz. Ein ähnliches System nutzt die Polizei zur heimlichen Überwachung. – Alle Rechte vorbehalten IMAGO / Jürgen Ritter

Bei der Videoüberwachung gehörte die Polizei in Sachsen schon immer zu den Pionieren. Leipzig war die erste deutsche Stadt, in der seit dem Jahr 1996 ein öffentlicher Platz am Bahnhof rund um die Uhr mit Kameras beobachtet wird. Ein Jahrzehnt später war das Bundesland Vorläufer bei der Überwachung mit fliegenden Kameras. Weitere zehn Jahre später beschaffte die Polizei in Görlitz und Zwickau in der Oberlausitz stationäre und mobile Systeme zur Videoüberwachung, die Kennzeichen und Gesichter aufnehmen und abgleichen können – letzteres allerdings retrograd, also im händischen Verfahren.

Vor wenigen Wochen wurde bekannt, dass die sächsische Polizei auch ein heimliches Observationssystem mit hochauflösenden Kameras und Gesichtserkennung einsetzt. Diese können entweder in parkenden Fahrzeugen verbaut oder stationär montiert werden. So kann die Polizei ermitteln, ob sich eine verdächtige Person an einem bestimmten Ort aufgehalten hat.

Hinweise auf „Personen-Identifikations-System“ (PerIS)

Details zur Funktionsweise unterliegen in Sachsen gemäß einer Polizeidienstvorschrift der Geheimhaltung, sagte ein Polizeisprecher auf Anfrage des „nd“. Ob es sich bei dieser „Observationstechnik für verdeckte Maßnahmen“ um Elemente des „Personen-Identifikations-Systems“ (PerIS) aus der Oberlausitz handelt, ist unklar. Jedoch gibt es Hinweise darauf: Der erste bekanntgewordene Einsatz der verdeckten Observationstechnik aus Sachsen erfolgte in Berlin im Bereich der „grenzüberschreitenden Bandenkriminalität“. Diese Ermittlungen führt die Polizeidirektion Görlitz, die das PerIS als erste sächsische Behörde 2020 angeschafft hat.

Für die Ermittlungen in Berlin hat das Landeskriminalamt aus Görlitz ein Amtshilfeersuchen an die Staatsanwaltschaft in der Hauptstadt gestellt. Das bestätigt die Berliner Senatsverwaltung für Inneres in der Antwort auf eine Kleine Anfrage des Linken-Abgeordneten Niklas Schrader, der auch innenpolitischer Sprecher der Fraktion ist. Darin finden sich auch technische Details zu der Anlage. Das mobile Überwachungssystem nimmt demnach Kennzeichen von durchfahrenden Kraftfahrzeugen sowie Gesichtsbilder der Fahrer:innen und Beifahrer:innen auf.

Abgleich mit Lichtbildern

Die Aufnahmen werden mit bereits im System vorhandenen Lichtbildern abgeglichen. Diese Datenbank speist sich aus Bildern, die von Polizisten „händisch ausgewählt und manuell in das System eingepflegt“ werden. Ein automatischer Abgleich mit anderen polizeilichen oder europäischen Informationssystemen erfolgt angeblich nicht.

Das System kann Gesichtsbilder „mit der zeitlichen Verzögerung von wenigen Sekunden“ verarbeiten, wie die Berliner Staatsanwaltschaft bereits dem „nd“ mitgeteilt hatte. Alle im Umkreis erfassten Personen würden mit Bildern von Tatverdächtigen aus einem konkreten Ermittlungsverfahren abgeglichen, erklärte der Sprecher. Entdeckt die Software eine verdächtige Person, wird der Fund durch einen Polizeibeamten überprüft.

„Bei den wesentlichen technischen Komponenten beziehungsweise Details handelt es sich um ein System hochauflösender Kameras, die qualitativ sehr gute Bilder auch bei Dunkelheit und unter schlechten Witterungsbedingungen erstellen können“, erläutert nun der Berliner Innensenat. Einsätze der Technik erfolgten „zur Identifizierung von Tatverdächtigen und zur Aufhellung von Fluchtrouten und bei der Tat genutzten Wegen bekannter Tatverdächtiger“.

Um welche konkreten Verfahren es sich handelt, beantwortet der Senat nicht. In einem Fall werde wegen einer „internationalen Kraftfahrzeugverschiebung“ ermittelt, in dem anderen wegen eines schweren Raubes an einer Tankstelle. Diese Tat werde einer Gruppierung zur Last gelegt, die „regelmäßig bandenmäßig schwere Tresordiebstähle“ an Tankstellen begehen soll. Einer der Vorfälle sei „zu einem schweren Raub eskaliert“.

Staatsanwaltschaft Berlin sieht „keine flächendeckende Überwachung“

Als rechtliche Grundlage für den Einsatz der biometrischen Überwachung nennt die Berliner Staatsanwaltschaft den Paragraf 98a der Strafprozessordnung. Er erlaubt eine Rasterfahndung bei einer Straftat von erheblicher Bedeutung, wenn andere Methoden „erheblich weniger erfolgversprechend oder wesentlich erschwert“ wären. Nach diesem Gesetz dürfen alle von der Technik erfassten Personen „mit anderen Daten maschinell abgeglichen werden“.

Wie oft die Polizei Sachsen die „Observationstechnik für verdeckte Maßnahmen“ bereits eingesetzt hat und ob diese Einsätze erfolgreich waren, ist dort angeblich mangels Statistiken nicht bekannt. In Berlin habe es „bislang eine bestätigte Personenidentifizierung“ gegeben, heißt es in der Antwort.

Bei den Observationen mit Videokameras geraten sämtliche Personen im Umkreis ins polizeiliche Raster. Die Staatsanwaltschaft Berlin sieht darin „keine flächendeckende Überwachung“. Tobias Singelnstein, Professor für Strafrecht an der Johann-Wolfgang-Goethe-Universität Frankfurt am Main, widerspricht: „Eine solche Maßnahme greift in erheblichem Maße in die Rechte von völlig Unbeteiligten ein, weil je nach Umständen eine Vielzahl von Personen erfasst wird“. Die Strafprozessordnung erlaube eine solche Maßnahme nicht.

Auch der Fragesteller Niklas Schrader steht der heimlichen Technik äußerst kritisch gegenüber: „Der Einsatz von biometrischer Gesichtserkennung von Polizeifahrzeugen aus ist ein schwerer Eingriff in die Persönlichkeitsrechte auch von Unbetroffenen. Indem sich Berlin entsprechende Technik aus Sachsen ausleiht, werden Schritt für Schritt die Voraussetzungen geschaffen, diese flächendeckend durchzusetzen“, warnt der innenpolitische Sprecher der Berliner Linken und fordert vom Senat „ein deutliches Bekenntnis, vom Einsatz biometrischer Überwachung und auch der Ausweitung von polizeilicher Videoüberwachung im öffentlichen Raum Abstand zu nehmen“.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

SEO-Spam: Warum Google immer schlechter wird

3. Mai 2024 - 15:28

Die Suche im Internet gestaltet sich immer schwieriger. Ein Grund dafür sind sogenannte Affiliate-Links, mit denen Website-Anbieter auf einfache Weise Geld verdienen. Gegen deren Suchmaschinenoptimierung sind Dienste wie Google Search oder Microsoft Bing offenbar machtlos.

Die Ergebnisse bei der Internetsuche werden immer schlechter. Das bestätigt auch eine Studie. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Firmbee.com

Die Google-Suche, so inzwischen ein weitverbreiteter Eindruck, spuckt längst nicht mehr so gute Ergebnisse aus wie noch vor wenigen Jahren. Wer beispielsweise nach hochwertigen Kopfhörern oder schönen Reisezielen sucht, erhält als Suchergebnis vor allem Links auf kommerzielle Blogs oder Vergleichsportale.

Die dortigen Texte sind in den meisten Fällen nicht sonderlich aussagekräftig – und zunehmend ist fraglich, ob sie von einem Menschen geschrieben wurden. Die Produktempfehlungen sind oft mit einem Link versehen, der einen zu Amazon oder einem anderen kommerziellen Anbieter weiterleitet.

Insofern sind die Seiten kaum mehr als ein Zwischenstopp auf dem Weg zum Händler.

Google-Suche als Forschungsthema

Den Eindruck, dass Internetsuchen in den vergangenen Jahren qualitativ schlechter geworden sind, bestätigt auch eine Studie von Forscher*innen der Universität Leipzig und der Bauhaus-Universität Weimar.

Für die Dauer eines Jahres haben die Wissenschaftler:innen knapp 7.400 Abfragen zu Produktbewertungen beobachtet. Dabei konzentrierten sie sich nach eigenen Angaben „auf die Suche nach Produktbewertungen, die wir aufgrund des inhärenten Interessenkonflikts zwischen Nutzern, Such- und Inhaltsanbietern als besonders anfällig für Affiliate-Marketing betrachten.“

Die Studienergebnisse veröffentlichten die Forschenden zu Beginn dieses Jahres. Demnach sind Webseiten, die Produkte vergleichen und zu kommerziellen Anbietern verlinken, maßgeblich dafür verantwortlich, dass die Internetsuche schlechter wird. Und nicht nur Google ist davon betroffen, sondern laut den Wissenschaftler:innen auch Microsoft Bing und DuckDuckGo.

Affiliate-Link-Farmen

Die entsprechenden Webseiten bieten Inhalte an, die mit sogenannten Affiliate-Links versehen sind. Klicken Seitenbesucher:innen auf diese Links und kaufen dann ein entsprechendes Produkt, verdienen die Betreiber der Affiliate-Seiten zwischen 5 und 15 Euro pro Kauf.

Kleineren Bloggern kann dies durchaus dabei helfen, mit ihrer Website Einnahmen zu erzielen. Daneben gibt es jedoch inzwischen weitaus mehr Seiten, die nichts anderes als Affiliate-Link-Farmen sind.

Diese Seiten präsentieren meist eine Fülle an Produkten und versehen dieses mit Affiliate-Links zu verschiedenen Händlern, die dieses Produkt anbieten. Abgesehen von den Werbeinhalten und den Links sind diese Seiten relativ inhaltsleer.

Darüber hinaus sind Affiliate-Links oft auch auf Kochseiten wie Chefkoch.de zu finden. Seiten ohne Affiliate-Links, die etwa auf Angebote von Supermärkten verweisen, sind meistens sehr viel weiter unten auf der Suchseite zu finden.

Ein Beispiel für eine Webseite mit Affiliate-Links, die sich hier hinter grünen Buttons verbergen. - Alle Rechte vorbehalten Screenshot: gamestar.de Katz- und Maus-Spiel

Damit Internetnutzer:innen auf die Webseiten kommen, betreiben deren Betreiber gezielt  Suchmaschinenoptimierung (SEO). Sie halten ihre Website fortwährend auf dem neuesten Stand, passen sie aktuellen Suchtrends an und aktualisieren dafür Textüberschriften sowie Metadaten.

Bei alledem achten die Betreiber insbesondere darauf, eine möglichst breite Palette potenzieller Suchbegriffe abzudecken. Auf diese Weise gelingt es ihnen, dass ihre Webseiten in den Ergebnissen der Google-Suche relativ weit oben angezeigt werden, ohne dass die Seitenbetreiber dafür viel Geld investieren müssen.

Google und andere Suchmaschinenbetreiber bemühen sich offenbar darum, gegen diese Art der gezielten SEO vorzugehen. So zeigt die Studie, dass die Flut an Affiliate-Link-Webseiten in den oberen Suchergebnissen nach jedem internen Update der Google-Suche vorübergehend zurückging. Das Ganze gleicht jedoch einem Katz- und Maus-Spiel. Denn schon nach relativ kurzer Zeit füllte sich die erste Ergebnisseite wieder mit den Seiten der Affiliate-Link-Farmen.

Besserung ist vorerst nicht in Sicht

Solange Google dieses Problem nicht nachhaltig in den Griff bekommt, solange die Nutzer:innen der Suche auch qualitativ schlechtere Suchergebnisse erhalten – gespickt mit Webseiten, die kaum relevanten Inhalt enthalten, und die nur einem Zweck dienen: dem Seitenbetreiber Einnahmen zu bescheren.

Immerhin kennzeichnen viele Anbieter ihre Inhalte als kommerzielles Angebot, etwa indem sie Affiliate-Links mit dem Symbol eines Einkaufswagens versehen. So erhalten die Besucher:innen dieser Seiten eine Ahnung davon, dass der Anbieter mit ihren Klicks Geld verdient. Und zugleich bestätigt sich damit einmal mehr auch bei ihnen der Eindruck, dass die Google-Suche immer schlechter wird.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Reporter ohne Grenzen: Pressefreiheit verschlechtert sich weltweit

3. Mai 2024 - 12:18

Die Pressefreiheit steht weiterhin unter Druck. In vielen Regionen haben sich die Arbeitsbedingungen für Journalist:innen verschlechtert. Reporter ohne Grenzen warnt im weltweiten Superwahljahr vor weiteren Repressionen.

Nicht mehr viel grün. Die Lage der Pressefreiheit verschlechtert sich weltweit. – Alle Rechte vorbehalten Reporter ohne Grenzen

Die Lage der Pressefreiheit hat sich im weltweiten Vergleich noch einmal deutlich verschlechtert. Dies geht aus der Rangliste der Pressefreiheit 2024 von Reporter ohne Grenzen (RSF) hervor. Der jährlich erscheinenden Analyse zufolge befanden sich im vergangenen Jahr 36 Länder in der schlechtesten Wertungskategorie – so viele wie seit mehr als zehn Jahren nicht. Unabhängige journalistische Arbeit ist in solchen Ländern praktisch unmöglich.

Auf den hintersten Plätzen der Rangliste befinden sich das nun von den Taliban regierte Afghanistan, sowie Syrien und die „Informationswüste“ Eritrea, welche den 180. und damit letzten Platz belegt. Auch in den Nachfolgestaaten der Sowjetunion verschlechterte sich die Lage weiter. Russland, Kasachstan, Usbekistan, Tadschikistan, Turkmenistan und Aserbaidschan befinden sich unter den letzten 35 Plätzen auf der Rangliste. Einer der größten Absteiger ist Georgien, das auf Platz 103 abrutschte. Die Regierungspartei „Georgischer Traum“ verfolgt eine pressefeindliche Politik und will gerade ein Gesetz zu „Ausländischen Agenten“ nach russischem Vorbild einführen. Einzig in der Ukraine hat sich die Lage – trotz Krieg – verbessert.

Schlecht sieht es für die Pressefreiheit auch im asiatisch-pazifischen Raum aus, wo mit Afghanistan, China, Vietnam, Myanmar und Nordkorea gleich fünf Länder unter den letzten zehn Plätzen rangieren. Aber auch auf den Philippinen, in Kambodscha und Malaysia sind Medien zunehmend unter Druck. Indien steht unter dem immer autoritärer regierenden Narendra Modi nur noch auf Platz 159 weltweit.

Doch es gibt auch Lichtblicke: So konnten laut RSF Länder wie Timor-Leste (20), Samoa (22) und Taiwan (27) ihren Status als regionale Vorbilder in Sachen Pressefreiheit behaupten.

Pressefreiheit nach Weltregionen - Alle Rechte vorbehalten RSF Nur Europa sticht hervor

Auch in Nahost und Nordafrika sieht es eher düster aus. Lediglich Katar ist mit Platz 84 unter den Top 100, Israel ist mittlerweile auf Platz 101 abgerutscht. Länder wie Syrien (179), Iran (176), Saudi-Arabien (166) und Ägypten (170) sind unter den 20 Ländern, in denen die Pressefreiheit weltweit am stärksten eingeschränkt ist.

Besonders schwierig ist die Lage derzeit im Sudan (149) wegen des Bürgerkriegs. Spitzenreiter der Region Subsahara ist Mauretanien auf dem 33. Platz.

In vielen Ländern Lateinamerikas leben Journalist:innen gefährlich, so etwa in Mexiko (121). In keinem anderen Land, das sich nicht im Krieg befindet, werden so viele Journalisten ermordet. Abgestürzt in der Wertung ist auch Argentinien (66), wo mit dem neuen Präsidenten Javier Milei ein ausgemachter Gegner der Presse die Bühne betreten hat.

In Europa ist die Lage hingegen im Gesamtbild gut, aber durchwachsen. So konstatiert RSF pressefeindliche Tendenzen in der Slowakei (29) und Ungarn (67), sowie eine schwierige Lage der Presse in Griechenland (88), wo es zu einem Abhörskandal gegen Journalisten kam. Unter politischem Druck steht laut RSF unabhängiger Journalismus in Bosnien und Herzegowina (81), Serbien (98) und Albanien (99). Schlusslicht der Region ist die Türkei auf dem 158. Platz.

Deutschland wieder aufgestiegen

Deutschland steht hingegen auf Platz 10 und hat sich vom 21. Platz verbessert. Die Situation in Deutschland habe sich aber nur geringfügig verbessert und auch nur in der Kategorie Sicherheit, schreibt RSF. Der Sprung auf Ranglistenplatz 10 sei zudem auch der Tatsache geschuldet, dass sich andere Länder auf der Rangliste verschlechtert hätten.

Besorgniserregend in Deutschland sei weiterhin die Gewalt gegen Medienschaffende: RSF verifizierte für das Jahr 2023 insgesamt 41 Übergriffe auf Journalistinnen und Reporter. Im Vorjahr lag die Zahl noch bei 103 – ein Negativrekord –, im Jahr 2021 bei 80. Laut RSF fanden 18 dieser 41 Übergriffe während Kundgebungen von Verschwörungstheoretikern oder extremen Rechten statt.

Besonderes Augenmerk legt RSF in diesem Jahr auf die Lage der Pressefreiheit im Umfeld von Wahlen. Diese führen regelmäßig dazu, dass Journalist:innen festgenommen, beschimpft und bedroht werden. Mehr als die Hälfte der Weltbevölkerung sei 2024 an die Wahlurnen gerufen – und in solchen Zeiten leben Journalist:innen besonders gefährlich.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Digitalpolitischer Rückblick: Fünf Jahre von der Leyen

2. Mai 2024 - 9:20

Im Juni wählt Europa ein neues Parlament und bekommt auch eine neue EU-Kommission. Deren alte Präsidentin wird wahrscheinlich auch die neue sein: Ursula von der Leyen. Was hat die mächtigste Frau der Welt in den vergangenen fünf Jahren netzpolitisch erreicht? Wir prüfen ihre Versprechen.

Ursula von der Leyen hatte eine umfangreiche digitalpolitische Agenda. – Imago

Große Krisen, große Worte, große Vorhaben. So lässt sich Ursula von der Leyens Amtszeit als Präsidentin der EU-Kommission zusammenfassen. „Eine Union, die mehr erreichen will“, das versprach die CDU-Politikerin vor fünf Jahren in ihren politischen Leitlinien für die neue Kommission. Von der Leyen, kurz VdL, war damals die Überraschungskandidatin für den Posten als Präsidentin. Ihre Kandidatur war das Ergebnis eines Politdramas, an dessen Ende sie die Unterstützung aller EU-Regierungschefs erhielt. Das düpierte EU-Parlament konnte die Entscheidung nur noch abnicken, zähneknirschend und mit einer hauchdünnen Mehrheit.

Denn eigentlich sollte nach der letzten Europawahl der CSU-Politiker Manfred Weber Kommissionspräsident werden. Das hatte zumindest das Parlament vorab gefordert, um den Prozess demokratischer zu machen: Weber war Chef der Europäischen Volkspartei und Spitzenkandidat der Konservation, die die EU-Wahl gewonnen hatten. Doch die Mitgliedstaaten spielten ihre übliche Rolle im EU-Gefüge und verhinderten das. Victor Orban soll ein Wörtchen mitgeredet haben, ebenso wie Emmanuel Macron. Am Ende wurde es Webers Parteikollegin von der Leyen.

Diese war damals noch deutsche Verteidigungsministerin und im Amt mäßig erfolgreich. Als Kommissionspräsidentin hatte sie mit großen Krisen zu kämpfen, die Corona-Pandemie und der russische Angriffskrieg prägten die vergangenen fünf Jahre. Doch auch ambitionierte Digitalprojekte, allen voran der Kampf gegen die Macht der großen Tech-Konzerne aus Übersee, standen auf ihrer  Agenda. Es gab sehr viele Vorhaben, zu viele für einen Text. Wir beschränken uns deshalb hier auf die, die sie in ihrer Agenda angekündigt hatte. Soviel sei zu ihnen schon einmal verraten: Während von der Leyen sich das Erreichen wichtiger Meilensteine auf die Fahne schreiben kann, blieb sie bei digitalen Grund- und Bürgerrechten hinter den großen Worten zurück.

Großes Update für die Plattformregulierung

Das wichtigste digitalpolitische Vorhaben der VdL-Kommission war wohl das Mammutgesetz für Digitale Dienste. Dieses ist zwar, wie wir damals kommentierten, weder ein Plattformgrundgesetz noch eine Revolution, aber trotzdem eine sehr wichtige Neuregelung der großen Online-Plattformen. Das Gesetz soll unter anderem Haftung und Sicherheit von Sozialen Medien verbessern und Plattformkonzerne stärker in die Pflicht nehmen. Wie gut das gelingt, wird sich erst in den nächsten Jahren zeigen. In den ersten Monaten, in denen das Gesetz vollständig gültig war, ging die Kommission jedenfalls bereits hart gegen Plattformen vor, die sich nicht an die Regeln hielten.

Das Schwestergesetz ist das Gesetz für Digitale Märkte, auf Englisch Digital Markets Act (DMA). Das hat einige seiner Ziele übernommen, etwa bessere Regeln für Produkte. Wenn der DMA die erhoffte Wirkung auf die Marktübermacht dieser Unternehmen entfaltet, könnte es sogar das wichtigere der beiden Gesetze werden. Dabei war im Programm von der Leyens vom DMA noch gar keine Rede.

Normalisierung biometrischer Überwachung

Zu den beiden Plattformgesetzen gesellt sich das Großvorhaben einer Verordnung zu Künstlicher Intelligenz. Eigentlich wollte von der Leyen bereits in den ersten 100 Tagen ihrer Amtszeit ein Gesetz vorschlagen, das Künstliche Intelligenz regulieren soll, gedauert hat es noch bis 2021. Ein Jahr später brachte der ChatGPT-Boom das Thema dann auf einmal ganz nach vorn auf die politische Agenda. Das Gesetz stand damals schon halb, musste noch einmal grundlegend erweitert werden und wäre auf den letzten Metern fast noch gescheitert. Am Ende kam es ohne ausreichende Verbote für biometrische Überwachung über die Ziellinie. Damit läuft die Verordnung Gefahr, großflächige Überwachung in Europa zu ermöglichen.

Für Menschen, die an Europas Außengrenzen ankommen, ist die umfassende Überwachung bereits Realität. Wer auf der Flucht etwa an der griechischen Grenze ankommt, musste bisher schon seine Fingerabdrücke preisgeben. Mit dem groß angelegten neuen Migrationspakt kommen dazu nun auch noch biometrische Fotos. Das ist zwar nur ein Teilaspekt der unter von der Leyens Führung verschärften Abschottungspolitik der EU gegen Geflüchtete. Doch für Migrant:innen kann das, wenn sie wegen ihrer Fingerabdrücke zurück in ein unsicheres Heimatland geschickt werden, den Tod bedeuten.

Steuerprobleme noch nicht gelöst

Die Tech-Riesen sind auch deshalb mächtig, weil sie Geld scheffeln. Meta, der Mutterkonzern von Facebook, machte im vergangenen Jahr einen Umsatz von umgerechnet 126 Milliarden Euro. Das entspricht ungefähr der gesamten Volkswirtschaft der Slowakei. Gleichzeitig bezahlten sie lange verschwindend geringe Steuern, durch kreative Unternehmensstrukturen und besondere Deals. Von der Leyen hatte angekündigt, dagegen vorgehen zu wollen: Steuern für Tech-Riesen sollten „ganz oben auf der Agenda“ stehen.

Das bezog sich besonders auf Verhandlungen bei der Organisation für wirtschaftliche Zusammenarbeit und Entwicklung, der OECD. Diese wurden 2021 abgeschlossen, Ergebnis war ein Deal aus zwei Teilen: Einerseits sollen die Gewinne großer Unternehmen in den Ländern besteuert werden, in denen sie sie erzielen. Andererseits soll es weltweite Minimalsteuer von 15% auf Unternehmen geben.

Die Minimalsteuer ist in der EU umgesetzt, die entsprechende Richtlinie gilt seit Anfang dieses Jahres. Schwieriger sieht es bei der Verteilung der Gewinne aus, denn hier sträuben sich die USA. Dort sitzen viele Tech-Riesen, das Land hätte also viel zu verlieren – und hat deshalb schon angekündigt, auf Steuern mit Strafzöllen zu reagieren. Der Prozess verzögert sich deshalb momentan immer weiter, wahrscheinlich bis nach der US-Präsidentschaftswahl. Das kann man von der Leyen nicht wirklich vorwerfen, aber Priorität hatte das Thema für sie auch nicht.

Grundwerte: Große Worte, wenig Taten

„Bei der Verteidigung unserer Grundwerte dürfen wir keine Kompromisse eingehen. Angriffe auf die Rechtsstaatlichkeit erschüttern die Union in ihren rechtlichen, politischen und wirtschaftlichen Grundfesten.“ Vor ihrem Amtsantritt fand von der Leyen starke Worte zur Verteidigung der europäischen Werte – weniger stark war ihre Reaktion auf den Pegasus-Skandal. Medien und Nichtregierungsorganisationen hatten enthüllt, dass der Pegasus-Trojaner der israelischen NSO Group in mehreren Mitgliedstaaten, darunter Spanien und Polen, gegen Oppositionelle eingesetzt wurde.

Die Details dazu, ob und wie europäische Regierungen hier ihre eigenen Bürger:innen und politischen Feinde ausgespäht haben, wird die europäische Öffentlichkeit aber wahrscheinlich nie erfahren. Das EU-Parlament drängte mit einem eigenen Untersuchungsausschuss auf die Aufklärung des Skandals, den wir intensiv begleitet haben. Die Kommission blieb trotzdem untätig. Die Mitgliedstaaten verstecken sich hinter der Ausrede der nationalen Sicherheit – sobald die berührt ist, hat die EU nichts mehr zu melden. Nur Polen und seit neuestem auch Spanien arbeiten daran, die Spionage aufzuklären.

Mit aller Macht trieben die EU-Kommission und Innenkommissarin Ylva Johansson stattdessen das Vorhaben der Chatkontrolle voran: Um Darstellungen von Kindesmissbrauch und andere illegale Inhalte aufzuspüren, sollten mittels Client-Side-Scanning Chat-Nachrichten proaktiv durchsucht werden. Das Vorhaben dieser Massenüberwachung ist vorerst gescheitert, doch sicher nicht vom Tisch.

Von der Leyens SMS bleiben geheim

Von der Leyen hatte sich auch mehr Transparenz auf die Fahnen geschrieben. „Die Bürgerinnen und Bürger sollten wissen, mit wem wir – als die Organe, die ihnen dienen – uns treffen, mit wem wir diskutieren und welche Positionen wir vertreten“, hieß es in ihren Leitlinien. Tatsächlich veröffentlichen alle EU-Kommissar:innen und ihre leitenden Mitarbeiter:innen im EU-Transparenzregister, mit wem sie sich zu welchen Themen treffen. So etwas gibt es auf Bundesebene nicht. Per Informationsfreiheitsantrag kann auch jede Bürger:in die Protokolle dieser Treffen anfordern.

Nicht so genau nahm von der Leyen es aber mit der Transparenz, wenn es um ihre SMS ging. Die standen im Zentrum von „Pfizergate“, einem Skandal, den unser ehemaliger Kollege Alexander Fanta losgetreten hat. Er hatte per Informationsfreiheitsanfrage die SMS angefordert, die von der Leyen mit dem Chef von Impfstofflieferant Pfizer ausgetauscht hatte, um einen Lieferdeal einzufädeln. Die Kommission hat die SMS bis heute nicht herausgerückt, die Europäische Bürger:innenbeauftragte hat sie dafür verwarnt. Eine Klage der New York Times läuft noch.

Nur eine abgespeckte Verordnung zur Plattformarbeit

Online-Plattformen gibt es nicht mehr nur für Videos oder Bilder, sondern zunehmend auch für Jobs. Vor zwei Jahren arbeiteten laut der Kommission noch 28 Millionen Europäer:innen auf Online-Plattformen, im 2025 sollen es schon 43 Millionen sein. Vor dem Amtsantritt hatte von der Leyen angekündigt, prüfen zu wollen, wie man die Arbeitsbedingungen dieser Menschen verbessern kann, „insbesondere im Hinblick auf Kompetenzen und Bildung.“

Daraus wurde dann ein wenig mehr – auch durch den Einsatz von Nicolas Schmit, dem sozialdemokratischen Arbeitskommissar von der Leyens. Statt einer vagen Erklärung für mehr Digitalkompetenz legte die Kommission einen ambitionierten Vorschlag für eine Richtlinie zur Plattformarbeit vor. Die sollte europaweit einheitliche Regeln gegen Scheinselbstständigkeit einführen, dazu noch neue Rechte bei algorithmischen Entscheidungen. Fast wäre das Vorhaben am Widerstand Frankreichs und der FDP gescheitert. Am Ende wurde es eine abgespeckte Richtlinie, die zwar mehr Rechte für Plattformarbeiter:innen bringt, aber den Mitgliedstaaten mehr Macht überlässt – die diese etwa unter Macron gegen Arbeiter:innen nutzen dürften.

Viel erledigt, aber nicht immer gut

Vom 6. bis 9. Juni wählen die Menschen in der EU ein neues Parlament. Es ist wahrscheinlich, dass Ursula von der Leyen danach weitere fünf Jahre Zeit bekommt, um die Geschicke der EU zu leiten. Am Montag stellte sich von der Leyen das erste Mal ihren Konkurrent:innen für den Posten als Kommissionspräsidentin. Sie ist diesmal offiziell Spitzenkandidatin der EVP, diese führt in Umfragen haushoch. Wenn nicht die Sozialdemokraten noch überraschend einen Turbo-Wahlkampf hinlegen oder die Mitgliedstaaten wieder eine andere Überraschungskandidatin aus dem Hut zaubern, wird es eine zweite VdL-Kommission geben.

Auf dem Papier kann Ursula von der Leyen eine ordentliche Bilanz vorweisen. Von den großen digitalpolitischen Brocken, die sie sich vorgenommen hatte – Plattformen neu regeln, Steuern auf ihre Gewinne erheben, die Grundwerte der EU verteidigen – hat sie viele umsetzen können. Doch nicht jede beschlossene Verordnung ist eine gute Verordnung, das zeigt sich besonders bei der KI-Verordnung. Wenn man Projekte auf Teufel komm heraus fertigstellen will, dann leidet oft die Qualität. Bei Einbauschränken heißt das, dass die Türen klappern – bei Gesetzen kann es bedeuten, dass sie massenhafte biometrische Überwachung ermöglichen.

So stark von der Leyens Ergebnisse im Ringen mit den US-Plattformkonzernen sind, so düster ist die digitalpolitische Bilanz bei den Grundwerten. Sollte sie eine zweite Amtszeit erreichen, hätte Ursula von der Leyen die Möglichkeit, ihren großen Worten hier Taten folgen zu lassen, vor allem bei Transparenz und Bürgerrechten.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Essay: Wir müssen zurück zum wilden Internet

1. Mai 2024 - 8:00

Das Internet ist zu einer ausbeuterischen und fragilen Monokultur geworden. Aber wir können es renaturieren, indem wir die Lehren von Ökologen nutzen.

Das Internet war einst ein wilder Ort – und könnte es wieder sein – Midjourney

Der Text ist die Übersetzung des englischsprachigen Beitrags „We Need To Rewild The Internet“, der am 16. April im Noema Magazine erschienen ist. 

„Das Wort für Welt ist Wald“ – Ursula K. Le Guin

Im späten 18. Jahrhundert begannen Beamte in Preußen und Sachsen damit, ihre vielschichtigen und vielfältigen Wälder in geradlinige Reihen mit nur einer Baumart umzugestalten. Für die dort lebenden Menschen waren die Wälder bis dahin eine Quelle für Nahrung, Weideland, Schutz, Medizin, Bettzeug und vieles mehr. Für den frühmodernen Staat waren sie hingegen lediglich eine Quelle für Holz.

Die sogenannte „wissenschaftliche Forstwirtschaft“ war einer der Wachstumsmotoren des Jahrhunderts, ein „Wachstums-Hack“. Sie erleichterte das Zählen, Vorhersagen und Ernten der Holzerträge und bedeutete, dass die Eigentümer nicht mehr auf qualifizierte lokale Förster angewiesen waren, um die Wälder zu bewirtschaften. An ihre Stelle traten weniger qualifizierte Arbeitskräfte, die einfache algorithmische Anweisungen befolgten, um die Monokulturen in Ordnung und das Unterholz kahl zu halten.

Informationen und Entscheidungsgewalt flossen nun direkt nach oben. Jahrzehnte später, als die ersten Plantagen abgeholzt waren, wurde Baum für Baum ein riesiges Vermögen gemacht. Die gerodeten Wälder wurden wieder aufgeforstet, in der Hoffnung, den Boom zu verlängern. Was dann geschah, wissen die Leserinnen und Leser des amerikanischen politischen Anthropologen für Anarchie und Ordnung, James C. Scott.

Die Katastrophe und ihre Folgen waren so schlimm, dass dafür ein neues Wort geprägt wurde: „Waldsterben“. Alle Bäume derselben Art und desselben Alters wurden von Stürmen niedergewalzt, von Insekten und Krankheiten heimgesucht – selbst die überlebenden Bäume waren spindeldürr und schwach. Die Wälder waren jetzt so kahl, dass sie fast tot waren. Die erste prächtige Ernte war nicht der Beginn unendlichen Reichtums, sondern eine einmalige Ausbeute von Bodenschätzen, die in Jahrtausenden durch biologische Vielfalt und Symbiose entstanden waren. Die Vielschichtigkeit der Wälder war die Gans, die goldene Eier legte, und sie wurde geschlachtet.

Diesen Drang, die Unordnung zu beseitigen, die das Leben erst widerstandsfähig macht, bezeichnen viele Naturschutzbiologen als ‚Pathologie des Befehlens und des Kontrollierens‘.

Die Geschichte der deutschen Forstwissenschaft vermittelt eine zeitlose Wahrheit: Wenn wir komplexe Systeme vereinfachen, zerstören wir sie, und die verheerenden Folgen werden manchmal erst dann erkannt, wenn es zu spät ist.

Diesen Drang, die Unordnung zu beseitigen, die das Leben erst widerstandsfähig macht, bezeichnen viele Naturschutzbiologen als „Pathologie des Befehlens und des Kontrollierens“. Heute hat derselbe Drang nach Zentralisierung, Kontrolle und Extraktion das Internet in das gleiche Schicksal geführt wie die verwüsteten Wälder.

In den 2010er Jahren, den Boomjahren des Internets, wurde vielleicht die erste glorreiche Ernte eingefahren, die eine einzigartige Fundgrube der Vielfalt ausgebeutet hat. Das komplexe Geflecht menschlicher Interaktionen, das in der anfänglichen technologischen Vielfalt des Internets gedieh, wird nun in weltumspannenden Datenextraktionsmaschinen gebündelt, die einigen wenigen ein riesiges Vermögen einbringen.

Unsere Online-Räume sind keine Ökosysteme, auch wenn die Technologie-Unternehmen dieses Wort lieben. Sie sind Plantagen – hochkonzentrierte und kontrollierte Umgebungen, die eher mit industriellen Rindermastanlagen oder Hühnerbatterien zu vergleichen sind, die die darin gefangenen Lebewesen in den Wahnsinn treiben.

Wir alle kennen das. Wir erleben es jedes Mal, wenn wir zum Smartphone greifen. Die meisten Menschen übersehen jedoch, dass diese Konzentration bis tief in die Infrastruktur des Internets hineinreicht – die Leitungen und Protokolle, Kabel und Netzwerke, Suchmaschinen und Browser. Diese Strukturen bestimmen, wie wir das Internet jetzt und in Zukunft aufbauen und nutzen.


Sie haben sich zu einer Reihe nahezu globaler Duopole zusammengeschlossen. Im April 2024 teilten sich beispielsweise die Internet-Browser von Google und Apple fast 85 Prozent des Weltmarktes, die beiden Desktop-Betriebssysteme von Microsoft und Apple mehr als 80 Prozent. Google wickelt 84 Prozent der weltweiten Internetsuchen ab und Microsoft rund 3 Prozent. Etwas mehr als die Hälfte aller Mobiltelefone stammen von Apple und Samsung, und über 99 Prozent der mobilen Betriebssysteme basieren auf Software von Google oder Apple. Zwei Cloud-Computing-Anbieter, Amazon Web Services und Microsoft Azure, vereinen mehr als 50 Prozent des weltweiten Marktes auf sich. Die E-Mail-Clients von Apple und Google verwalten fast 90 Prozent des weltweiten Mail-Verkehrs. Google und Cloudflare wickeln rund die Hälfte der weltweiten Domain-Namen-Systemanfragen ab.

Zwei Arten von allem mögen ausreichen, um eine fiktive Arche zu füllen und eine zerstörte Welt wieder zu bevölkern, aber sie können kein offenes, globales „Netz der Netze“ betreiben, in dem jeder die gleichen Chancen auf Innovation und Wettbewerb hat. Kein Wunder also, dass die Internet-Ingenieurin Leslie Daigle die Konzentration der technischen Architektur des Internets als „‚Klimawandel‘ des Internet-Ökosystems“ bezeichnet hat.

Ummauerte Gärten mit tiefreichenden Wurzeln

Das Internet hat die Tech-Giganten erst möglich gemacht. Ihre Dienste haben sich dank seines offenen und interoperablen Kerns weltweit verbreitet. In den vergangenen zehn Jahren haben sie jedoch daran gearbeitet, die verschiedenen konkurrierenden, oftmals quelloffenen oder kollektiv bereitgestellten Dienste, auf denen das Internet beruht, in ihre eigenen Domänen einzuschließen. Dies verbessert zwar ihre operative Effizienz, verhindert aber auch, dass potenzielle Konkurrenten jene Bedingungen für sich nutzen können, unter denen die Tech-Giganten einst florieren konnten. Für die großen der Branche ist die lange Zeit der offenen Entwicklung des Internets vorbei. Ihr Internet ist kein Ökosystem mehr. Es ist ein Zoo.

Google, Amazon, Microsoft und Meta festigen ihre Kontrolle über die zugrundeliegende Infrastruktur durch Übernahmen, vertikale Integration, den Aufbau eigener Netzwerke, die Schaffung von Engpässen und die Konzentration von Funktionen aus verschiedenen technischen Schichten in einem einzigen Silo mit Kontrolle von oben nach unten. Sie können sich das leisten, weil sie von dem enormen Reichtum profitieren, den sie aus der einmaligen Ernte des kollektiven, globalen Reichtums gewonnen haben.

Die Abschottung der Infrastruktur und die Einführung einer technologischen Monokultur blockiert unsere Zukunft. Internetfachleute sprechen gerne vom „Stack“, der mehrschichtigen Architektur aus Protokollen, Software und Hardware, die von verschiedenen Dienstanbietern betrieben werden und das tägliche Wunder der Konnektivität ermöglichen. Es handelt sich um ein komplexes, dynamisches System, in dessen Kerndesign ein grundlegender Wert integriert ist: Die wichtigsten Funktionen werden getrennt gehalten, um Ausfallsicherheit und Universalität zu gewährleisten sowie Raum für Innovation zu schaffen.

Ursprünglich vom US-Militär finanziert und von Forschenden entwickelt, um in Kriegszeiten zu funktionieren, hat sich das Internet zu einem System entwickelt, das überall und unter allen Bedingungen funktioniert und von jeder Person genutzt werden kann, die eine Verbindung herstellen möchte. Doch was einst ein dynamisches, sich ständig weiterentwickelndes Tetris-Spiel mit verschiedenen „Spielern“ und „Schichten“ war, ist heute zu einem kontinentübergreifenden System verdichteter tektonischer Platten erstarrt. Infrastruktur ist nicht nur das, was wir an der Oberfläche sehen, sondern auch die Kräfte, die darunter liegen, die Berge auftürmen und Tsunamis auslösen. Wer die Infrastruktur kontrolliert, bestimmt die Zukunft. Wer das bezweifelt, sollte bedenken, dass wir in Europa immer noch Straßen benutzen und in Städten leben, die das Römische Reich vor 2.000 Jahren gebaut hat.

Im Jahr 2019 schlugen einige Internet-Ingenieure in der Internet Engineering Task Force – dem globalen Gremium zur Festlegung von Standards – Alarm. Daigle, eine angesehene Ingenieurin und ehemalige Vorsitzende des Aufsichtsausschusses und des Internet Architecture Board, schrieb in einem Strategiepapier, die Konsolidierung bedeute eine Verknöcherung der Netzwerkstrukturen über den gesamten Stack hinweg. Dies erschwere es, die etablierten Betreiber zu verdrängen und verstoße zudem gegen ein Grundprinzip des Internets: dass es keine „dauerhaften Favoriten“ gebe. Konsolidierung verdrängt nicht nur den Wettbewerb. Sie schränkt auch die möglichen Beziehungen zwischen den Betreibern verschiedener Dienste ein.

Das komplexe Netz menschlicher Interaktionen, das in der anfänglichen technologischen Vielfalt des Internets gedieh, ist in den weltumspannenden Datenextraktionsmaschinen gefangen, die einigen wenigen ein riesiges Vermögen einbringen.

Daigle drückt es so aus: „Je mehr proprietäre Lösungen anstelle von kollaborativen, auf offenen Standards basierenden Lösungen entwickelt und eingesetzt werden, desto weniger wird das Internet als Plattform für künftige Innovationen erhalten bleiben.“ Die Konsolidierung untergräbt die Zusammenarbeit zwischen Diensteanbietern über den gesamten Stack hinweg, indem sie eine Reihe unterschiedlicher Beziehungen – wettbewerbsorientierte und kooperative – in eine einzige, räuberische Beziehung umwandelt.

Seitdem haben Organisationen, die für die Entwicklung von Standards zuständig sind, mehrere Initiativen gestartet, um die Konsolidierung der Infrastruktur als solche klar zu benennen und in Angriff zu nehmen. Allerdings sind alle Initiativen gescheitert. Die meisten Internet-Ingenieure mit ihrem technischen Detailwissen sahen den Wald vor lauter Bäumen nicht. Sie waren offenbar außerstande, sich von den Interessen ihrer Arbeitgeber und den tief verwurzelten beruflichen Werten der Vereinfachung und Kontrolle zu lösen.

Aus der Nähe erscheint das Internet zu kompliziert, um es zu entwirren, aus der Ferne zu unüberschaubar. Was aber wäre, wenn wir das Internet nicht als ein dem Untergang geweihtes „Hyperobjekt“ betrachten würden, sondern als ein beschädigtes und kämpfendes Ökosystem, das kurz vor der Zerstörung steht? Was wäre, wenn wir es nicht mit hilflosem Entsetzen über die unheimlichen Übergriffe seiner derzeitigen Beherrscher betrachten würden, sondern mit Mitgefühl, Konstruktivität und Hoffnung?

Technologen sind gut darin, schrittweise Lösungen zu finden. Aber um ganze Lebensräume zu regenerieren, müssen wir von den Ökologinnen und Ökologen lernen, die das ganze System betrachten. Ökologen wissen auch, wie man weitermacht, wenn andere einen erst ignorieren und dann sagen, es sei zu spät. Sie wissen, wie man mobilisiert und gemeinsam arbeitet. Und sie wissen, wie man Räume der Vielfalt und Resilienz schafft, die sie überdauern und Möglichkeiten für eine Zukunft im Überfluss schaffen, die sie sich zwar vorstellen, aber niemals kontrollieren können. Kurz gesagt: Wir müssen die Infrastruktur des Internets nicht reparieren. Vielmehr müssen wir sie neu verwildern lassen und damit wieder zum Leben erwecken. Im Englischen nennen wir das „Rewilding“.

Was bedeutet Rewilding?

Rewilding „zielt darauf ab, gesunde Ökosysteme wiederherzustellen, indem wilde, biodiverse Räume geschaffen werden“, so die International Union for Conservation of Nature (IUCN). Es ist ehrgeiziger und risikotoleranter als der traditionelle Naturschutz. Er zielt auf ganze Ökosysteme ab, um Raum für komplexe Nahrungsnetze und das Entstehen unerwarteter Beziehungen zwischen den Arten zu schaffen. Der Ansatz ist weniger an der Rettung einzelner bedrohter Arten interessiert. Sie sind nur Bestandteile des Ökosystems, und wenn man sich nur auf die Bestandteile konzentriert, verliert man den Blick für das Ganze. Ökosysteme gedeihen durch zahlreiche Verbindungen zwischen ihren vielen Elementen, genau wie Computernetzwerke. Und wie in Computernetzwerken sind die Interaktionen in Ökosystemen vielschichtig und generativ.

Rewilding hat Menschen, die sich für das Internet interessieren, viel zu bieten. Wie Paul Jepson und Cain Blythe in ihrem Buch „Rewilding: The Radical New Science of Ecological Recovery“ (zu Deutsch: Die radikale neue Wissenschaft der ökologischen Wiederherstellung) schreiben, achtet Rewilding „auf die sich entwickelnden Eigenschaften der Interaktionen zwischen den ‚Dingen‘ in den Ökosystemen … ein Übergang vom linearen zum systemischen Denken“.

Es ist eine grundsätzlich positive und handwerkliche Herangehensweise an ein scheinbar unlösbares Problem. Es ist kein Mikromanagement. Es schafft Raum für „ökologische Prozesse, die komplexe und sich selbst organisierende Ökosysteme fördern“. Rewilding setzt in die Praxis um, was jede gute Managerin und jeder gute Manager weiß: Stell die besten Leute ein, gib ihnen das, was sie brauchen, um zu gedeihen, und lass sie dann in Ruhe. Es ist das Gegenteil von Befehl und Kontrolle.

Die Transformation des Internets ist mehr als eine Metapher. Es ist ein Rahmen und ein Plan. Es bietet uns eine neue Sicht auf das verhängnisvolle Problem der Ausbeutung und Kontrolle sowie neue Mittel und Verbündete, um dieses Problem zu lösen. Es erkennt an, dass die Abschaffung von Internetmonopolen nicht nur ein intellektuelles Problem ist, sondern auch ein emotionales. Es beantwortet Fragen wie: Wie können wir weitermachen, wenn die Monopolisten mehr Geld und Macht haben? Wie können wir kollektiv handeln, wenn sie unsere gemeinsamen Räume, Finanzmittel und Netzwerke unterwandern? Und wie können wir unseren Verbündeten vermitteln, wie eine Lösung aussehen und sich anfühlen wird?

Rewilding ist eine positive Vision für die Netzwerke, in denen wir leben wollen, und eine gemeinsame Geschichte, wie wir dorthin gelangen. Es pflanzt einen neuen Baum auf dem müden alten Bestand der Technologie.

Was die Ökologie weiß

Die Ökologie ist mit komplexen Systemen vertraut, wovon Technologen profitieren können. Sie hat vor allem Erfahrungen damit, dass sich Grundlinien verschieben.

Wer in den 1970er Jahren geboren ist, erinnert sich wahrscheinlich an viel mehr tote Insekten auf der Windschutzscheibe des Autos der Eltern als auf der eigenen Scheibe heute. Die Populationen landlebender Insekten gehen weltweit um etwa 9 % pro Jahrzehnt zurück. Wenn du ein Geek bist, hast du wahrscheinlich deinen eigenen Computer programmiert, um einfache Spiele zu entwickeln. Sicherlich erinnerst du dich an ein Internet, in dem es mehr zu lesen gab als die gleichen fünf Websites. Vielleicht hattest du sogar ein eigenes Blog.

Aber viele Menschen, die nach dem Jahr 2000 geboren sind, halten wahrscheinlich eine Welt für normal, in der es nur wenige Insekten und wenige Umgebungsgeräusche durch Vögel gibt – und in der nur einige wenige soziale Medien und Messaging-Apps statt das ganze Internet genutzt werden. Wie Jepson und Blythe schreiben, verschieben sich die Grundlinien, „wenn jede Generation die Natur, die sie in ihrer Jugend erlebt hat, als normal ansieht und damit unwissentlich den Rückgang und die Schäden akzeptiert, die  vorangegangene Generationen angerichtet haben“. Der Schaden ist bereits vorprogrammiert. Er scheint sogar naturgegeben zu sein.

Die Ökologie weiß, dass die Verschiebung der Grundlinien die kollektive Dringlichkeit dämpft und die Gräben zwischen den Generationen vertieft. Menschen, die Monokultur und Kontrolle im Internet ablehnen, werden oft als Nostalgiker bezeichnet, die sich nach den Pionierzeiten zurücksehnen. Es ist verdammt schwierig, eine offene und wettbewerbsfähige Infrastruktur für jüngere Generationen zu schaffen, die mit der Vorstellung aufgewachsen sind, dass das Internet aus zwei oder drei Plattformen, zwei App-Stores, zwei Betriebssystemen, zwei Browsern, einem Cloud-/Megastore und einer einzigen Suchmaschine für die ganze Welt besteht. Wenn das Internet für dich ein riesiges, in den Himmel ragendes Silo ist, in dem du lebst, und das Einzige, was du von außen sehen kannst, ein anderes riesiges, in den Himmel ragendes Silo ist, wie kannst du dir dann etwas anderes vorstellen?

Konzentrierte digitale Macht führt zu den gleichen Symptomen, die Befehl und Kontrolle in biologischen Ökosystemen hervorrufen: akute Not, unterbrochen von plötzlichen Zusammenbrüchen, sobald Kipppunkte erreicht werden. Wie weit müssen wir gehen, damit Rewilding gelingt? Es ist eine Sache, Wölfe wieder in dem knapp 3.500 Quadratmeilen großen Yellowstone-Park wieder anzusiedeln, und eine ganz andere, etwa 20 Quadratmeilen eines Poldergebietes abzuriegeln – Land, das von einem Gewässer zurückgewonnen wurde, bekannt als Oostvaardersplassen in der Nähe von Amsterdam. Der große und vielfältige Yellowstone ist wahrscheinlich komplex genug, um sich an Veränderungen anzupassen, aber Oostvaardersplassen hat damit zu kämpfen.

In den 1980er Jahren versuchte die niederländische Regierung, einen Teil der überwucherten Oostvaardersplassen zu regenerieren. Ein unabhängiger Ökologe der Regierung, Frans Vera, prognostizierte, dass Schilf und Gestrüpp vorherrschen würden, wenn die inzwischen ausgestorbenen Pflanzenfresser sie nicht abweiden würden. Statt der alten Auerochsen führte die staatliche Forstverwaltung deutsche Heckrinder ein, die für ihre schlechte Laune bekannt sind, und statt des ausgestorbenen Steppenponys eine polnische halbwilde Rasse.

Rund 30 Jahre später, als es keine natürlichen Raubtiere mehr gab und Pläne für einen Wildtierkorridor zu einem anderen Reservat gescheitert waren, gab es viel mehr Tiere, als die spärliche Wintervegetation vertragen konnte. Die Menschen waren entsetzt über die verhungerten Kühe und Ponys, und 2018 führten die Behörden Tierschutzkontrollen und Keulungen ein.

Es reichte nicht aus, nur die Uhr zurückzudrehen. Der Teil der Oostvaardersplassen war zu klein und zu isoliert, um sich selbst überlassen und wieder verwildert zu werden. Da die Tiere nirgendwo anders hin konnten, waren Überweidung und Zusammenbruch unvermeidlich – eine ernüchternde, aber notwendige Lektion. Rewilding ist ein kontinuierlicher Prozess. Es geht nicht darum, Ökosysteme in ein mythisches Eden zurückzuversetzen. Vielmehr versuchen die Renaturierer, die Widerstandsfähigkeit der Ökosysteme wiederherzustellen, indem sie autonome natürliche Prozesse in Gang setzen und in großem Maßstab ablaufen lassen, um Komplexität zu erzeugen. „Rewilding“ ist jedoch selbst ein Eingriff des Menschen und kann mehrere Schritte erfordern, um erfolgreich zu sein.

Unsere Online-Räume sind Plantagen – hochkonzentrierte und kontrollierte Umgebungen, die eher mit industriellen Rindermastanlagen oder Hühnerbatterien zu vergleichen sind, die die darin gefangenen Lebewesen in den Wahnsinn treiben.

Was auch immer wir tun, das Internet wird nicht zu den alten, damals üblichen Schnittstellen wie FTP und Gopher zurückkehren, oder dazu, dass Unternehmen wieder ihre eigenen Mailserver betreiben, anstatt Lösungen von der Stange wie die G-Suite zu verwenden. Aber einiges von dem, was wir brauchen, ist bereits da, vor allem im Web. Schauen wir uns nur das Wiederaufleben von RSS-Feeds, E-Mail-Newslettern und Blogs an, weil wir – wieder einmal – feststellen, dass die Abhängigkeit von einer einzigen Anwendung für globale Konversationen zu einer einzigen Fehlerquelle und Kontrolle führt. Es entstehen neue Systeme, wie das Fediverse mit seinen föderierten Inseln oder Bluesky mit seiner algorithmischen Auswahl und Moderation.

Wir wissen nicht, was die Zukunft bringen wird. Unsere Aufgabe ist es, so viele Möglichkeiten wie möglich offen zu halten und darauf zu vertrauen, dass diejenigen, die später kommen, sie nutzen werden. Anstatt Reinheitstests durchzuführen, um herauszufinden, welche Art von Internet dem ursprünglichen am ähnlichsten ist, können wir Änderungen anhand der Werte des ursprünglichen Designs testen. Schützen die neuen Standards die „Allgemeinheit“ des Netzes, das heißt seine Fähigkeit, mehrere Verwendungszwecke und Anwendungen zu unterstützen, oder schränken sie die Funktionalität ein, um die Effizienz für die größten Technologieunternehmen zu optimieren?

Bereits 1985 schrieben die Pflanzenökologen Steward T.A. Pickett und Peter S. White in „The Ecology of Natural Disturbance and Patch Dynamics“, dass ein „wesentliches Paradoxon des Naturschutzes darin besteht, dass wir versuchen zu erhalten, was sich verändern muss“. Einige Internet-Ingenieure sind sich dessen bewusst. David Clark, ein Professor am Massachusetts Institute of Technology, der an einigen der ersten Protokolle des Internets mitwirkte, hat ein ganzes Buch über alternative Netzwerkarchitekturen geschrieben, die hätten entwickelt werden können, wenn die Schöpfer des Internets anderen Werten wie Sicherheit oder zentraler Verwaltung Vorrang eingeräumt hätten.

Aber unser Internet hat sich durchgesetzt, weil es als Allzwecknetz konzipiert wurde, um alle miteinander zu verbinden.

Unser Internet wurde entwickelt, um komplex und unüberwindbar zu sein, um Dinge zu tun, die wir uns noch gar nicht vorstellen können. Als wir Clark interviewten, sagte er uns: „‚Komplex‘ bedeutet ein System, in dem es ein sich entwickelndes Verhalten gibt, ein System, dessen Ergebnisse nicht modellieren werden können. Ihre Intuitionen können falsch sein. Aber ein zu einfaches System bedeutet verpasste Gelegenheiten.“ Alles, was wir gemeinsam schaffen und was es wert ist, ist komplex und damit ein wenig unübersichtlich. Die Risse sind der Ort, an dem neue Menschen und neue Ideen eintreten.

Die Internet-Infrastruktur ist ein erodiertes Ökosystem, aber sie ist auch eine gebaute Umgebung, wie eine Stadt. Ihre Unvorhersehbarkeit macht sie generativ, wertvoll und zutiefst menschlich. 1961 argumentierte Jane Jacobs, eine amerikanisch-kanadische Aktivistin und Autorin von „The Death and Life of Great American Cities“, dass gemischt genutzte Stadtviertel sicherer, glücklicher, wohlhabender und lebenswerter seien als Viertel, die den sterilen, stark kontrollierenden Entwürfen von Stadtplanern wie Robert Moses in New York nachempfunden sind.

Als eine von oben nach unten aufgebaute Umgebung ist das Internet zu etwas geworden, das uns widerfährt, und nicht zu etwas, das wir jeden Tag gemeinsam neu gestalten.

Genau wie die von Kriminalität geplagten, Le-Corbusier-ähnlichen Türme, in die Moses die Menschen pferchte, als er gemischte Stadtviertel abriss und Autobahnen durch sie hindurch errichtete, ist das heutige von oben nach unten aufgebaute, konzentrierte Internet für viele ein unangenehmer und schädlicher Ort. Seine Besitzer sind schwer zu vertreiben, und ihre Interessen stimmen nicht mit unseren überein.

Wie Jacobs schreibt: „Wie in allen Utopien hatten nur die verantwortlichen Planer das Recht, Pläne von Bedeutung zu haben.“ Als eine von oben nach unten aufgebaute Umgebung ist das Internet zu etwas geworden, das uns widerfährt, und nicht zu etwas, das wir jeden Tag gemeinsam neu gestalten.

Ökosysteme existieren, weil die Arten sich gegenseitig kontrollieren und ausbalancieren. Es gibt verschiedene Formen der Interaktion, nicht nur Extraktion, sondern auch Reziprozität, Gemeinschaft, Konkurrenz und Raubtiere. In florierenden Ökosystemen sind den Raubtieren Grenzen gesetzt. Sie sind nur ein Teil eines komplexen Netzwerks, das Kalorien weitergibt, und keine Einbahnstraße, die zum Ende der Evolution führt.

Vielfalt bedeutet Widerstandsfähigkeit

Am 18. Juli 2001 entgleisten 11 Waggons eines aus 60 Waggons bestehenden Güterzugs im Howard Street Tunnel unter dem Stadtteil Mid-Town Belvedere, nördlich der Innenstadt von Baltimore. Innerhalb weniger Minuten wurde ein Waggon beschädigt, der mit einer hochentzündlichen Chemikalie beladen war. Die auslaufende Chemikalie entzündete sich, und schon bald standen benachbarte Waggons in Flammen. Es dauerte fünf Tage, bis das Feuer gelöscht war.

Die Katastrophe vervielfachte sich und breitete sich aus. Die dicken, gemauerten Tunnelwände wirkten wie ein Ofen, und die Temperaturen stiegen auf über 1.000 Grad Celsius. Eine große Wasserleitung über dem Tunnel brach und überflutete ihn innerhalb weniger Stunden mit Millionen von Litern Wasser. Er kühlte sich nur wenig ab. Drei Wochen später sprengte eine Explosion, die mit der brennbaren Chemikalie in Verbindung gebracht wurde, Kanaldeckel in bis zu eineinhalb Kilometern Entfernung.

WorldCom, damals der zweitgrößte Ferngesprächsanbieter der USA, hatte in einem der Tunnel Glasfaserkabel verlegt, über die ein Großteil des Telefon- und Internetverkehrs verlief. Laut dem MIT-Professor Clark bedeutete die Ausfallplanung von WorldCom jedoch, dass der Datenverkehr in Erwartung eines solchen Ereignisses auf verschiedene Glasfasernetze verteilt wurde.

Auf dem Papier verfügte WorldCom über eine redundantes Netz. Doch fast unmittelbar nach der Katastrophe verlangsamte sich der Internetverkehr in den USA, und die Telefonleitungen von WorldCom an der Ostküste und über den Atlantik fielen aus. Die enge Topographie der Region hatte all diese verschiedenen Glasfasernetze auf einen einzigen Engpass konzentriert, den Howard Street Tunnel. Die Widerstandsfähigkeit von WorldCom war buchstäblich eingeäschert worden. Das Unternehmen hatte technische Redundanz, aber keine Vielfalt. Manchmal erkennen wir die Konzentration erst, wenn es zu spät ist.

Clark erzählt die Geschichte des Brandes im Howard Street Tunnel, um zu zeigen, dass Engpässe nicht immer offensichtlich sind – vor allem auf operativer Ebene – und dass riesige Systeme, die aufgrund ihrer Größe und Ressourcen sicher erscheinen, unerwartet zusammenbrechen können.

Im heutigen Internet wird ein Großteil des Datenverkehrs über die privaten Netze von Technologieunternehmen abgewickelt, beispielsweise über die eigenen Unterseekabel von Google und Meta. Ein großer Teil des Internetverkehrs erfolgt über einige wenige marktbeherrschende Content-Distributionsnetze wie Cloudflare und Akamai, die ihre eigenen Netzwerke aus Proxyserver und Datenzentren betreiben. Der Datenverkehr wird auch über eine immer geringer werdende Anzahl von DNS-Auflösern (Domain Name System) geleitet, die wie Telefonbücher für das Internet funktionieren und die Namen von Websites mit ihren numerischen Adressen verknüpfen.

All dies verbessert die Geschwindigkeit und Effizienz der Netze, schafft aber auch neue und nicht offensichtliche Engpässe wie den Howard Street Tunnel. Zentralisierte Diensteanbieter behaupten, über bessere Ressourcen und mehr Erfahrung mit Angriffen und Ausfällen zu verfügen. Aber sie sind auch große und attraktive Ziele für Angreifer und potenzielle Schwachstellen im System.

Am 21. Oktober 2016 funktionierten Dutzende große US-Websites plötzlich nicht mehr. Die Domainnamen von Airbnb, Amazon, Paypal, CNN und der New York Times ließen sich nicht mehr auflösen. Sie alle waren Kunden des kommerziellen DNS-Dienstleisters Dyn, der von einer Cyberattacke betroffen war. Die Angreifer infizierten zehntausende internetfähige Geräte mit Schadsoftware und bauten ein Netzwerk gekaperter Geräte, ein so genanntes Botnet, mit dem sie Dyn mit Anfragen bombardierten, bis der Dienst zusammenbrach. Amerikas größte Internet-Marken wurden durch nichts anderes als ein Netzwerk von Babyphones, Sicherheits-Webcams und anderen Verbrauchergeräten zu Fall gebracht. Obwohl sie wahrscheinlich alle über Ausfallpläne und Redundanzen verfügten, kam es zum Zusammenbruch, weil ein einziger Engpass – in einer entscheidenden Schicht der Infrastruktur – ausfiel.

Abstürze, Brände und Überschwemmungen mögen einfach nur Entropie in Aktion sein, aber systemisch konzentrierte und riskante Infrastrukturen sind manifeste Entscheidungen – und wir können bessere treffen.

Großflächige Ausfälle aufgrund von zentralen Engpässen sind inzwischen so häufig, dass Investoren sie sogar dazu nutzen, um Chancen zu erkennen. Als im Jahr 2021 ein Ausfall des Cloud-Anbieters Fastly dazu führte, dass führende Websites nicht mehr erreichbar waren, schnellte Fastlys Aktienkurs in die Höhe. Die Anleger waren begeistert von den Schlagzeilen, die sie über einen obskuren technischen Dienstleister informierten, der offenbar einen wichtigen Dienst besetzt hatte. Der Ausfall kritischer Infrastrukturen erscheint den Investoren nicht als Verwundbarkeit, sondern als Gewinnchance.

Das Ergebnis der infrastrukturellen Monokultur ist eine eingebaute Verwundbarkeit, die wir erst nach einem Ausfall bemerken. Aber auch in unseren Such- und Navigationswerkzeugen ist die Monokultur deutlich sichtbar. Durch Suchen, Browsen und die Nutzung sozialer Medien finden und teilen wir Wissen und kommunizieren miteinander. Es handelt sich um eine kritische, globale epistemische und demokratische Infrastruktur, die nur von wenigen US-Unternehmen kontrolliert wird. Abstürze, Brände und Überschwemmungen mögen nur Entropie in Aktion sein, aber systemisch konzentrierte und riskante Infrastrukturen sind manifeste Entscheidungen – und wir können bessere treffen.

So sähe ein erneuertes Internet aus

Ein erneuertes Internet wird viel mehr Dienste zur Auswahl haben. Einige Dienste wie die Suche und soziale Medien werden aufgespalten werden, wie es bei AT&T der Fall war. Anstatt dass Technologieunternehmen die persönlichen Daten der Menschen auslesen und verkaufen, werden verschiedene Zahlungsmodelle die Infrastruktur finanzieren, die wir brauchen. Derzeit gibt es kaum explizite Regelungen für öffentliche Güter wie Internetprotokolle und Browser, die für das Funktionieren des Internets unerlässlich sind. Die großen Technologieunternehmen subventionieren sie und üben einen großen Einfluss auf sie aus.

Ein Teil des Rewildings besteht darin, das, was in den großen Tech-Stack hineingezogen wurde, wieder herauszuholen und für die tatsächlichen Kosten der Konnektivität zu bezahlen. Einige Aspekte, etwa die grundlegende Konnektivität, werden wir weiterhin direkt begleichen. Andere, wie Browser, werden wir indirekt, aber transparent unterstützen, wie weiter unten beschrieben. Das erneuerte Internet wird eine Fülle von Möglichkeiten bieten, sich miteinander zu verbinden und zueinander in Beziehung zu treten. Es wird nicht nur ein oder zwei Nummern geben, die man anrufen kann, wenn die Anführer eines politischen Putsches beschließen, das Internet mitten in der Nacht abzuschalten, wie es in Ländern wie Ägypten und Myanmar geschehen ist. Kein Unternehmen wird auf Dauer an der Spitze stehen. Ein neu verwildertes Internet wird ein aufregenderer, nutzbarerer, stabilerer und angenehmererer Ort sein.

Die Wirtschaftsnobelpreisträgerin Elinor Ostrom hat in ihrer umfangreichen Forschungsarbeit herausgefunden, dass „wenn Menschen gut über ein Problem informiert sind, mit dem sie konfrontiert sind, und darüber, wer sonst noch daran beteiligt ist, und wenn sie ein Umfeld schaffen können, in dem Vertrauen und Gegenseitigkeit entstehen, wachsen und über einen längeren Zeitraum aufrechterhalten werden können, dann werden sie oft komplexe und positive Maßnahmen ergreifen, ohne darauf zu warten, dass eine externe Autorität Regeln aufstellt, deren Einhaltung überwacht und Strafen verhängt“.  Ostrom kam zu dem Ergebnis, dass Menschen sich spontan organisieren, um natürliche Ressourcen zu bewirtschaften – von der Zusammenarbeit mit Wasserunternehmen in Kalifornien bis hin zu Hummerfischern in Maine, die sich organisieren, um Überfischung zu verhindern.

Selbstorganisation gibt es auch bei der Schlüsselfunktion des Internets: der Koordinierung des Datenverkehrs. Internet Exchange Points (IXPs) sind ein Beispiel für das Management gemeinsamer Ressourcen, bei dem sich Internet Service Provider (ISPs) darauf einigen, die Daten der anderen zu geringen oder gar keinen Kosten zu übertragen. Netzbetreiber aller Art – Telekommunikationsunternehmen, große Technologieunternehmen, Universitäten, Regierungen und Rundfunkanstalten – müssen große Datenmengen durch die Netze anderer ISP leiten, um ihr Ziel zu erreichen.

Würden sie dies separat durch Einzelverträge regeln, müssten sie viel mehr Zeit und Geld aufwenden. Stattdessen gründen sie häufig IXPs, in der Regel als unabhängige, gemeinnützige Vereinigungen. Neben der Verwaltung des Datenverkehrs bilden IXPs in vielen Ländern – insbesondere in Entwicklungsländern – das Rückgrat einer florierenden technischen Gemeinschaft, die die wirtschaftliche Entwicklung vorantreibt.

Sowohl zwischen Menschen als auch im Internet sind Verbindungen produktiv. Von technischen Standards über die Verwaltung von Gemeinschaftsressourcen bis hin zu lokalen Breitbandnetzen, den so genannten „Altnets“, verfügt das Internet-Rewilding bereits über eine breite Palette kollektiver Instrumente, die genutzt werden können.

Neuer Antrieb für Kartellrecht und Wettbewerb

Die Liste der zu diversifizierenden Infrastrukturen ist lang. Neben Leitungen und Protokollen gibt es Betriebssysteme, Browser, Suchmaschinen, das Domain Name System, soziale Medien, Werbung, Cloud-Anbieter, App-Stores, KI-Unternehmen und vieles mehr. Und all diese Technologien sind auch miteinander verbunden.

Aber wenn man aufzeigt, was in einem Bereich getan werden kann, ergeben sich auch Möglichkeiten in anderen Bereichen. Fangen wir mit der Regulierung an.

Man braucht nicht immer eine große neue Idee wie Rewilding, um einen größeren Strukturwandel zu gestalten und voranzutreiben. Manchmal reicht es auch, eine alte Idee wiederzubeleben. Präsident Bidens „Executive Order on Promoting Competition in the American Economy“ aus dem Jahr 2021 belebte die ursprüngliche, arbeitnehmerfreundliche und vertrauenbildende Reichweite und Dringlichkeit des Richters am Obersten Gerichtshof Louis D. Brandeis aus dem frühen 20. Jahrhundert zusammen mit rechtlichen Rahmenbedingungen, die auf die 1930er Jahre und den Great New Deal zurückgehen.

Es geht darum, die Strukturen niederzureißen, die all jenen den Zugang zum Licht verwehren, die nicht reich genug sind, um im obersten Stockwerk zu wohnen.

Damals wurde das US-Kartellrecht geschaffen, um die Macht der Oligarchen in der Öl-, Stahl- und Eisenbahnindustrie zu brechen, die Amerikas junge Demokratie bedrohten. Es bot einen grundlegenden Schutz für Arbeitnehmer und betrachtete die wirtschaftliche Chancengleichheit als wesentliche Voraussetzung für die Freiheit. Diese Auffassung, dass Wettbewerb unverzichtbar ist, wurde durch die Wirtschaftspolitik der Chicagoer Schule in den 1970er Jahren und die Gerichtsurteile der Richter der Reagan-Ära im Laufe der Jahrzehnte ausgehöhlt. Sie vertraten die Ansicht, dass Eingriffe nur dann erlaubt sein sollten, wenn eine Monopolmacht die Verbraucherpreise in die Höhe treibt. Die geistige Monokultur dieser verbraucherschädlichen Schwelle hat sich seither weltweit verbreitet.

Das ist auch der Grund, warum die Regierungen einfach tatenlos zusahen, als sich die Technologiekonzerne des 21. Jahrhunderts zum Oligopol aufschwangen. Wenn das einzige Handlungskriterium einer Regulierungsbehörde darin besteht, sicherzustellen, dass die Verbraucher keinen Cent mehr bezahlen, dann fallen die kostenlosen oder datensubventionierten Dienste der Tech-Plattformen kaum ins Gewicht. (Natürlich zahlen die Verbraucher auf andere Weise, da diese Tech-Giganten ihre persönlichen Daten gewinnbringend verwerten). Dieser Laissez-faire-Ansatz hat es den größten Unternehmen ermöglicht, den Wettbewerb durch die Übernahme von Konkurrenten und die vertikale Integration von Dienstleistern zu ersticken, was zu den heutigen Problemen geführt hat.

Die Regulierungs- und Durchsetzungsbehörden in Washington und Brüssel sagen nun, dass sie diese Lektion gelernt haben und nicht zulassen werden, dass die sogenannte Künstlichen Intelligenz (KI) eine ähnliche Dominanz erlangt wie die Konzentration im Internet. Die Vorsitzende der Federal Trade Commission, Lina Khan, und der Kartellrechtsexperte des US-Justizministeriums, Jonathan Kanter, identifizieren Engpässe im KI-„Stack“ – der Konzentration bei der Kontrolle von Verarbeitungschips, Datensätzen, Rechenkapazitäten, Algorithmus-Innovationen, Vertriebsplattformen und Benutzeroberflächen. Sie analysieren die Engpässe, um festzustellen, ob und wie sie den systemischen Wettbewerb beeinträchtigen. Das sind potenziell gute Nachrichten für alle, die verhindern wollen, dass die derzeitige Dominanz der Tech-Giganten auch in der sich abzeichnenden KI-Zukunft fortbesteht.

Als Präsident Biden im Jahr 2021 die Durchführungsverordnung zum Wettbewerb unterzeichnete, sagte er: „Kapitalismus ohne Wettbewerb ist kein Kapitalismus, sondern Ausbeutung“. Bidens Wettbewerbshüter ändern die Art der Fälle, mit denen sie sich befassen, und erweitern die anwendbaren Rechtstheorien über den Umfang des Schadens, den sie den Richtern vorlegen. Anstelle des traditionell engen Fokus auf Verbraucherpreise wird in den heutigen Fällen argumentiert, dass der wirtschaftliche Schaden, den marktbeherrschende Unternehmen verursachen, auch den Schaden umfasst, den Arbeitnehmer, kleine Unternehmen und der Markt als Ganzes erleiden.

Khan und Kanter haben verengte und abstruse Modelle des Marktverhaltens zugunsten der realen Erfahrungen von Beschäftigten im Gesundheitswesen, Landwirten und Schriftstellern über Bord geworfen. Sie haben verstanden, dass die Beschneidung wirtschaftlicher Möglichkeiten den Rechtsextremismus schürt. Bei der Durchsetzung des Kartellrechts und der Wettbewerbspolitik setzen sie explizit auf Zwang versus Wahlmöglichkeiten sowie auf Macht versus Demokratie. Kanter sagte kürzlich auf einer Konferenz in Brüssel, „übermäßige Machtkonzentration ist eine Bedrohung. … Es geht nicht nur um Preise oder Produktion, es geht um Freiheit, Unabhängigkeit und Chancen“.

Die Behörden in Washington und Brüssel haben damit begonnen, präventiv zu verhindern, dass Technologieunternehmen ihre Vormachtstellung in einem Bereich nutzen, um einen anderen zu erobern. Nach einer Untersuchung durch die US-Finanzaufsichtsbehörde FTC und die EU-Kommission hat Amazon kürzlich seine Pläne aufgegeben, den Haushaltsgerätehersteller iRobot zu übernehmen. Die Regulierungsbehörden auf beiden Seiten des Atlantiks haben auch versucht, Apple daran zu hindern, seine Dominanz auf der iPhone-Plattform zu nutzen, um den Wettbewerb in den App-Stores einzuschränken und künftige Märkte zu beherrschen, indem sie etwa Automobilherstellern die Nutzung von CarPlay vorschreiben und den Zugang zu ihrer digitalen Zahlungsmethode Tap-to-Pay im Finanzdienstleistungssektor einschränken.

Dennoch haben sich ihre Durchsetzungsmaßnahmen bisher auf die für die Verbraucher sichtbaren Teile des von den Technologiegiganten betriebenen und proprietären Internets konzentriert. Die wenigen, eng gefassten Maßnahmen der Durchführungsverordnung 2021, die darauf abzielen, infrastrukturbasierte Monopole zu reduzieren, verhindern nur zukünftigen Missbrauch wie die Aneignung von Funkfrequenzen. Sie verhindern nicht solche, die bereits etabliert sind. Natürlich ist das beste Mittel gegen Monopole, sie von vornherein zu verhindern. Aber wenn die Regulierungs- und Durchsetzungsbehörden die bestehende Dominanz dieser Giganten nicht jetzt beseitigen, werden wir noch Jahrzehnte, vielleicht sogar ein Jahrhundert, mit dem heutigen Infrastrukturmonopol leben müssen.

Selbst aktivistische Regulierungsbehörden schrecken davor zurück, härteste Maßnahmen gegen Marktkonzentrationen in alteingesessenen Märkten zu ergreifen. Dazu gehören Nichtdiskriminierungsauflagen, funktionale Interoperabilität und strukturelle Entflechtungen, also die Zerschlagung von Unternehmen. Und zu erklären, dass Such- und Social-Media-Monopole eigentlich öffentliche Versorgungsunternehmen sind – und sie dazu zu zwingen, als gemeinsame, für alle offene Träger zu agieren – scheint den meisten derzeit noch als zu extrem.

Aber Rewilding einer bereits erbauten Umwelt zu betreiben, bedeutet nicht, sich einfach nur zurückzulehnen und dabei zuzusehen, welches zarte, lebendige Pflänzchen sich seinen Weg durch den Beton bahnen kann. Stattdessen geht es darum, die Strukturen niederzureißen, die all jenen den Zugang zum Licht verwehren, die nicht reich genug sind, um im obersten Stockwerk zu wohnen.

Als der Schriftsteller und Aktivist Cory Doctorow darüber schrieb, wie wir uns aus den Fängen von Big Tech befreien können, sagte er, dass es wahrscheinlich Jahrzehnte dauern würde, die großen Unternehmen zu zerschlagen. Aber die Schaffung einer starken und verbindlichen Interoperabilität würde Raum für Innovation schaffen und den Geldfluss zu den großen Unternehmen verlangsamen – Geld, das diese sonst dazu verwenden würden, ihre Burggräben zu vertiefen.

Doctorow beschreibt „Comcom“ – oder Competitive Compatibility, zu Deutsch: wettbewerbsfähige Kompatibilität – als eine Art „Guerilla-Interoperabilität, die durch Reverse Engineering, Bots, Scraping und andere erlaubnisfreie Taktiken erreicht wird“. Bevor ein Dickicht invasiver Gesetze entstand, um es zu ersticken, war Comcom die Art und Weise, wie die Menschen herausfanden, wie man Autos und Traktoren repariert oder Software umschreibt. Comcom treibt das Verhalten an, das man in einem florierenden Ökosystem beobachten kann: „Man probiert alles aus, bis es funktioniert.“

Ökologen haben ihr Fachgebiet als ‚Krisendisziplin‘ neu ausgerichtet – ein Fachgebiet, in dem es nicht nur darum geht, Dinge zu lernen, sondern auch darum, sie zu retten. Wir Technologen müssen es ihnen gleichtun

In einem Ökosystem ist die Artenvielfalt ein anderes Wort für „Taktikenvielfalt“. Denn jede neue erfolgreiche Taktik schafft eine neue Nische, die es zu besetzen gilt. Sei es ein Oktopus, der sich als Seeschlange tarnt, ein Kuckuck, der seine Küken in das Nest eines anderen Vogels schmuggelt, eine Orchidee, deren Blüten einer weiblichen Biene gleichen, oder ein Parasit, der Nagetiere dazu bringt, lebensgefährliche Risiken einzugehen – jede evolutionäre Mikro-Nische wird durch eine erfolgreiche Taktik geschaffen. Comcom ist schlicht und einfach taktische Vielfalt: Es geht darum, wie Organismen in komplexen, dynamischen Systemen interagieren. Und der Mensch hat bewiesen, dass er kurzfristig denkt, indem er es den Oligarchen ermöglichte, dieser Vielfalt ein Ende zu setzen.

Nun aber gibt es erste Bemühungen, sich dem entgegenzustellen. Die EU verfügt bereits über mehrjährige Erfahrung mit Interoperabilitätsvorschriften und hat wertvolle Erkenntnisse darüber gewonnen, wie Unternehmen solche Gesetze umgehen. Im Gegensatz dazu stehen die USA noch ganz am Anfang, wenn es darum geht, die Software-Interoperabilität, zum Beispiel bei Videokonferenzen, zu gewährleisten.

Eine Möglichkeit, die Regulierungs- und Durchsetzungsbehörden überall zu motivieren und zu ermutigen, besteht vielleicht darin, zu erklären, dass die unterirdische Architektur des Internets zu einem Schattenland geworden ist, in dem die Entwicklung fast zum Stillstand gekommen ist. Die Bemühungen der Regulierungsbehörden, das sichtbare Internet wettbewerbsfähig zu machen, werden wenig bewirken, wenn sie sich nicht auch um die Verwüstungen unter der Oberfläche kümmern.

Die nächsten Schritte

Vieles von dem, was wir brauchen, ist bereits vorhanden. Abgesehen davon, dass die Regulierungsbehörden viel Mut, Visionen und mutige neue Strategien für Rechtsstreitigkeiten benötigen, brauchen wir eine energische und wettbewerbsfördernde Regierungspolitik in den Bereichen Beschaffung, Investitionen und physische Infrastruktur. Die Universitäten müssen Forschungsgelder von Technologieunternehmen ablehnen, da diese immer an Bedingungen geknüpft sind, sowohl ausgesprochen als auch unausgesprochen.

Stattdessen brauchen wir mehr öffentlich finanzierte Technologieforschung mit öffentlich zugänglichen Ergebnissen. Diese Forschung sollte die Machtkonzentration im Internet-Ökosystem und praktische Alternativen dazu untersuchen. Wir müssen anerkennen, dass ein großer Teil der Internet-Infrastruktur de facto eine Versorgungseinrichtung („utility“) ist, die wir wieder unter unsere Kontrolle bringen müssen.

Wir müssen regulatorische und finanzielle Anreize schaffen und Alternativen unterstützen, wie etwa die Verwaltung von Gemeinschaftsressourcen, kommunale Netzwerke und die unzähligen anderen Mechanismen der Zusammenarbeit unterstützen, die die Menschen genutzt haben, um wichtige öffentliche Güter wie Straßen, Verteidigung und sauberes Wasser bereitzustellen.

All dies erfordert Geld. Den Regierungen fehlen die Steuereinnahmen aus den einmaligen Gewinnen der heutigen Tech-Giganten. Das aber zeigt auch, wo das Geld ist. Wir müssen es uns zurückholen.

Wir wissen das alles, aber tun uns trotzdem schwer, gemeinsam zu handeln. Warum?

Es ist nicht einfach, sich Alternativen vorzustellen, weil wir in starren Technologie-Plantagen gefangen sind, statt in funktionierenden, vielfältigen Ökosystemen. Selbst diejenigen, die das Problem klar vor Augen haben, fühlen sich oft hilflos und allein. Rewilding vereint alles, von dem wir wissen, dass wir es tun müssen, und bringt einen völlig neuen Werkzeugkasten und eine neue Vision mit sich.

Umweltschützer sehen sich mit den gleichen Ausbeutungssystemen konfrontiert und organisieren sich – in großem Maßstab und sektorübergreifend. Sie sehen deutlich, dass die Probleme nicht isoliert sind, sondern Teil derselben Problematik von Befehl und Kontrolle, Ausbeutung und Herrschaft, die der politische Anthropologe Scott zuerst in der wissenschaftlichen Forstwirtschaft erkannt hat. Die Lösungen sind die gleichen in der Ökologie und in der Technologie: Der Rechtstaat muss aggressiv eingesetzt werden, um ungleiche Kapital- und Machtverhältnisse auszugleichen. Und dann müssen die Lücken mit besseren Lösungen gefüllt werden.

Lass das Internet Internet sein

Susan Leigh Star, Soziologin und Theoretikerin für Infrastrukturen und Netzwerke, schrieb 1999 in ihrem einflussreichen Essay „The Ethnography of Infrastructure“:

„Wenn man eine Stadt studiert und ihre Kanalisation und Energieversorgung vernachlässig – wie viele es getan haben –, so entgehen einem wesentliche Aspekte von Verteilungsgerechtigkeit und Planungsmacht. Studiert man ein Informationssystem und vernachlässigt seine Standards, Leitungen und Einstellungen, dann entgehen einem ebenso wesentliche Aspekte der Ästhetik, der Gerechtigkeit und des Wandels.“

Die technischen Protokolle und Standards, die der Internet-Infrastruktur zugrundeliegen, werden vordergründig in offenen, kollaborativen Standardisierungsorganisationen (SDOs) entwickelt. Sie befinden sich jedoch zunehmend unter der Kontrolle einiger weniger Unternehmen. Die scheinbar „freiwilligen“ Standards sind oft die Geschäftsentscheidungen der größten Unternehmen.

Die Dominanz großer Unternehmen in den SDOs bestimmt auch, was nicht standardisiert wird – zum Beispiel die Suche, die de facto ein globales Monopol ist. Trotz wiederholter Bemührungen innerhalb der SDOs, die Konsolidierung des Internets direkt anzugehen, wurden kaum Fortschritte erzielt. Dies schadet der Glaubwürdigkeit der SDOs, insbesondere außerhalb der USA. Die SDOs müssen sich radikal ändern, sonst verlieren sie ihr implizites globales Mandat, die Zukunft des Internets zu gestalten.

Wir brauchen Internet-Standards, die global, offen und generativ sind. Sie sind die Drahtmodelle, die dem Internet seine planetarische Form geben, die hauchdünnen und zugleich stahlharten Fäden, die seine Interoperabilität gegen Fragmentierung und permanente Dominanz zusammenhalten.

Gesetze und Normen müssen zusammenwirken

Im Jahr 2018 gelang es einer kleinen Gruppe kalifornischer Bürgerinnen und Bürger, ein kalifornisches Verbraucherdatenschutzgesetz (California Consumer Privacy Act) durchzusetzen. Das Gesetz enthielt eine unscheinbare Bestimmung: das Recht, den Verkauf oder die Weitergabe persönlicher Daten über ein „benutzeraktiviertes globales Datenschutzkontrollsignal“ (GPC-Signal) abzulehnen, das eine automatisierte Methode für diesen Zweck vorsieht. Das Gesetz legte nicht fest, wie das GPC funktionieren sollte. Da ein technischer Standard erforderlich war, damit Browser, Unternehmen und Anbieter dieselbe Sprache sprechen, wurden die Einzelheiten des Signals an eine Expertengruppe delegiert.

Im Juli 2021 ordnete der kalifornische Generalstaatsanwalt an, dass alle Unternehmen die neu geschaffene GPC für in Kalifornien ansässige Verbraucher verwenden müssen, die ihre Websites besuchen. Die Expertengruppe begleitet nun die technische Spezifikation durch die Entwicklung globaler Webstandards beim World Wide Web Consortium. Der GPC automatisiert die Abfrage, ob Kalifornier dem Verkauf ihrer Daten, zum Beispiel durch Cookie-basiertes Tracking, auf Websites zustimmen oder nicht. Es wird jedoch noch nicht von großen Browsern wie Chrome und Safari unterstützt. Eine breite Akzeptanz wird einige Zeit in Anspruch nehmen, aber es ist ein kleiner Schritt, um die tatsächlichen Ergebnisse zu verändern, indem Antimonopol-Praktiken tief in die Standards integriert werden – und sie werden bereits anderswo übernommen.

GPC ist nicht der erste gesetzlich vorgeschriebene offene Standard. Aber er wurde von Anfang an bewusst als Brücke zwischen Politik und Standardsetzung konzipiert. Diese Idee setzt sich immer mehr durch. Ein kürzlich veröffentlichter Bericht des Menschenrechtsrates der Vereinten Nationen empfiehlt, dass Staaten „regulatorische Funktionen an Standardisierungsorganisationen delegieren“.

Die Anbieter von Dienstleistungen transparent machen – nicht die Nutzer

Das heutige Internet bietet nur ein Minimum an Transparenz für die wichtigsten Anbieter von Internet-Infrastrukturen. Browser zum Beispiel sind hochkomplexe Teile der Infrastruktur. Sie bestimmen, wie Milliarden von Menschen das Internet nutzen, und werden dennoch kostenlos zur Verfügung gestellt. Das liegt daran, dass die meistgenutzten Suchmaschinen undurchsichtige finanzielle Vereinbarungen mit den Browser-Herstellern treffen und sie dafür bezahlen, dass sie als Standard eingestellt werden. Da nur wenige Menschen ihre Standardsuchmaschine wechseln, verdienen Browser wie Safari und Firefox Geld damit, dass die Suchleiste standardmäßig auf Google eingestellt ist. Damit sichern sie ihre Dominanz, auch wenn die Qualität der Suchmaschine abnimmt.

Dies schafft ein Dilemma. Würden die Kartellwächter den Wettbewerb erzwingen, verlören die Browser ihre Haupteinnahmequelle. Infrastruktur braucht Geld, aber die globale Natur des Internets stellt unser öffentliches Finanzierungsmodell infrage und lässt die Tür für eine Übernahme durch den Privatsektor offen. Wenn wir jedoch das derzeitige undurchsichtige System als das sehen, was es ist, nämlich eine Art nichtstaatliche Besteuerung, dann können wir eine Alternative entwickeln.

Suchmaschinen sind ein idealer Ort für Regierungen, um eine Abgabe zur Unterstützung von Browsern und anderen wichtigen Internet-Infrastrukturen zu erheben. Sie könnte auf transparente Weise und unter offener, länderübergreifender und von vielen Interessengruppen getragener Kontrolle finanziert werden.

Raum zum Wachsen schaffen

Wir müssen aufhören, die Internet-Infrastruktur als etwas zu betrachten, das nur schwer zu reparieren ist. Es ist das zugrundeliegende System, das wir für fast alles nutzen, was wir tun. Der ehemalige schwedische Premierminister Carl Bildt und der ehemalige stellvertretende kanadische Außenminister Gordon Smith schrieben 2016, dass das Internet „die Infrastruktur aller Infrastrukturen“ wird. Es ist die Art und Weise, wie wir Wissen organisieren, verbinden und aufbauen – vielleicht eines Tages sogar als globale Intelligenz. Im Moment ist dieses Netz jedoch konzentriert, zerbrechlich und manchmal überaus toxisch.

Ökologen haben ihr Fachgebiet als „Krisendisziplin“ neu ausgerichtet – ein Fachgebiet, in dem es nicht nur darum geht, Dinge zu lernen, sondern auch darum, sie zu retten. Wir Technologen müssen es ihnen gleichtun. „Rewilding the Internet“ verbindet und erweitert die Aktivitäten der Menschen in den Bereichen Regulierung und Standardisierung. Und es eröffnet neue Wege, um die Infrastruktur zu organisieren und aufzubauen. Und nur so können wir eine gemeinsame Geschichte erzählen, wohin wir gehen wollen.

Es ist eine gemeinsame Vision mit vielen Strategien. Die Instrumente, die wir brauchen, um die extraktiven technologischen Monokulturen zu überwinden, sind bereits vorhanden oder bereit, gebaut zu werden.

 

Maria Farrell ist Autorin und Rednerin zum Thema Technologie und Zukunft. Sie hat bei der Internationalen Handelskammer, der Internet Corporation for Assigned Names and Numbers sowie der Weltbank im Bereich Technologiepolitik gearbeitet.

Robin Berjon ist Experte für digitale Governance und hat an zahlreichen Webstandards mitgewirkt, unter anderem an der Global Privacy Control. Er arbeitet an neuartigen Web-Protokollen wie dem InterPlanetary File System und sitzt im Vorstand des World Wide Web Consortium sowie im Technology Advisory Panel des britischen Information Commissioner’s Office.

Diesen und weitere englischsprachigen Beiträge dieser Art gibt es auf www.noemamag.com

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

EuGH-Urteil: Gericht lässt Massenüberwachung des Internets zu

30. April 2024 - 18:03

Der EuGH hat gerade den massenhaften und automatisierten Zugriff auf IP-Adressen genehmigt. Mit dem heutigen Urteil räumt das Gericht ein, dass es seine Rechtsprechung ändern wird, wenn seine Urteile nicht umgesetzt werden. Ein Gastkommentar.

Der Europäische Gerichtshof ändert seine Rechtsprechung in Sachen Vorratsdatenspeicherung. (Symbolbild) – Alle Rechte vorbehalten IMAGO / Pond Images

Dies ist ein übersetzter Beitrag der französischen Digital-Rights-Organisation La Quadrature du Net zum heutigen Urteil des Europäischen Gerichtshofes, welches die Vorratsdatenspeicherung erheblich ausweitet. Gastbeiträge geben nicht zwangsläufig die Haltung der Redaktion wider.

In seinem Urteil vom 30. April 2024 teilte der Gerichtshof der Europäischen Union (EuGH) seine Einschätzung der Rechtmäßigkeit des massiven Überwachungssystems von Hadopi. Das Urteil ist enttäuschend. Der EuGH hat seine bisherige Rechtsprechung erheblich verwässert, was sich nicht nur auf den Fall der französischen Behörde Hadopi auswirkt.

Mit diesem neuen Urteil wird der Zugriff auf IP-Adressen nicht mehr standardmäßig als schwerwiegender Eingriff in die Grundrechte angesehen. Infolgedessen lässt der Gerichtshof die Möglichkeit einer Massenüberwachung des Internets zu.

Der EuGH hat den massenhaften automatisierten Zugriff auf IP-Adressen genehmigt, die mit der bürgerlichen Identität und dem Inhalt einer Kommunikation verbunden sind. Dieser Zugriff kann zu Bagatellzwecken und ohne vorherige Überprüfung durch ein Gericht oder eine unabhängige Verwaltungsbehörde erfolgen.

Wende in der Rechtsprechung

Das Urteil vom 30. April 2024 stellt eine wichtige Wende in der EU-Rechtsprechung dar. Nach einem Jahrzehnt des juristischen Kampfes, in dem sich die europäischen Regierungen bewusst dafür entschieden haben, die vielen früheren EuGH-Urteile zur Vorratsdatenspeicherung nicht zu respektieren und umzusetzen, haben die Polizeien in ganz Europa gerade den Kampf gewonnen. Mit dem heutigen Urteil räumt der EuGH ein, dass er seine Rechtsprechung irgendwann ändern wird, wenn seine Urteile nicht umgesetzt werden. Dies ist eine beunruhigende Schwächung der Autorität des Gerichtshofs angesichts des Drucks der Mitgliedstaaten.

Während der EuGH im Jahr 2020 die Auffassung vertrat, dass die Vorratsspeicherung von IP-Adressen einen schwerwiegenden Eingriff in die Grundrechte darstellte und der Zugriff auf die IP-Adressen zusammen mit der zivilen Identität des Internetnutzers nur zur Bekämpfung schwerer Straftaten oder zum Schutz der nationalen Sicherheit erfolgen durfte, trifft dies nun nicht mehr zu. Der EuGH hat seine Argumentation umgekehrt: Er ist nun der Ansicht, dass die Vorratsspeicherung von IP-Adressen standardmäßig keinen schwerwiegenden Eingriff in die Grundrechte mehr darstellt und dass ein solcher Zugriff nur in bestimmten Fällen einen schwerwiegenden Eingriff darstellt, der durch geeignete Schutzmaßnahmen abgesichert werden muss.

Im Hinblick auf unseren Fall und die Besonderheit von Hadopi in Frankreich fordert der Gerichtshof Hadopi lediglich auf, sich etwas weiterzuentwickeln. Er ist der Ansicht, dass in bestimmten „atypischen“ Situationen der Zugriff auf die IP-Adresse und die bürgerliche Identität im Zusammenhang mit urheberrechtlich geschützten Werken einen schwerwiegenden Eingriff in das Recht auf Privatsphäre darstellen kann (zum Beispiel wenn das Material Rückschlüsse auf politische Meinungen, die sexuelle Orientierung usw. zulässt); er ist auch der Ansicht, dass ein solcher Zugriff im „Wiederholungsfall“ einen schwerwiegenden Eingriff darstellt, und verlangt daher, dass der Zugriff auf die IP-Adressen nicht „vollständig automatisiert“ sein darf. In allen anderen Fällen stellt der EuGH jedoch eindeutig fest, dass Hadopi massiv und automatisiert auf die bürgerlichen Identitäten von Personen zugreifen kann.

EuGH gibt Online-Anonymität auf

Mit anderen Worten: Die abgestufte Reaktion (benannt nach dem von Hadopi angewandten Verfahren, das darin besteht, mehrere Warnungen zu verschicken, bevor rechtliche Schritte eingeleitet werden, wenn der Internetnutzer seine Verbindung nicht „sichert“) wird eine andere Form annehmen müssen. Der französische Gesetzgeber wird sich einen komplizierten Mechanismus ausdenken müssen, um eine Art unabhängiger externer Kontrolle des Zugriffs auf die bürgerliche Identität durch Hadopi zu gewährleisten. Während Hadopi derzeit nicht verpflichtet ist, sich einer externen Kontrolle zu unterziehen, muss sich die Behörde nun einer solchen unterziehen, wenn sie in diesen „atypischen“ Fällen oder im Falle eines „wiederholten Verstoßes“ auf die Identität zugreifen will. Mit anderen Worten: Externe Bedienstete von Hadopi werden für das Anklicken eines „Validierungs“-Buttons verantwortlich sein, während Hadopi heute selbst die Genehmigung erteilt.

Ganz allgemein hat diese Entscheidung des EuGH vor allem das Ende der Online-Anonymität bestätigt. Während der Gerichtshof im Jahr 2020 feststellte, dass ein in der Datenschutzrichtlinie für elektronische Kommunikation verankertes Recht auf Online-Anonymität existiert, gibt er es jetzt auf. Leider setzt er der Online-Anonymität ein faktisches Ende, indem er der Polizei einen umfassenden Zugang zur zivilen Identität, die mit einer IP-Adresse verbunden ist, und zum Inhalt einer Kommunikation gewährt.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

EuGH-Urteil zur Vorratsdatenspeicherung: „Traurige Wende beim Schutz der Privatsphäre“

30. April 2024 - 16:36

Der Europäische Gerichtshof ändert seine bisher grundrechtsfreundliche Haltung zur Vorratsdatenspeicherung und erlaubt in einem Urteil die anlasslose Überwachung sogar bei Urheberrechtsverletzungen. Grundrechte-Organisationen sind entsetzt und sprechen von einer „Wende“.

Der EuGH erlaubt jetzt mehr anlasslose Überwachung. (Symbolbild) – Alle Rechte vorbehalten IMAGO / Panthermedia

Der Europäische Gerichtshof hat in einem Urteil die Zulässigkeit der Vorratsdatenspeicherung von IP-Adressen erheblich ausgeweitet. Nicht nur sagt das Gericht in seiner Pressemitteilung, dass „die allgemeine und unterschiedslose Vorratsspeicherung von IP-Adressen nicht zwangsläufig einen schweren Eingriff in die Grundrechte“ darstelle, sondern sieht auch deren Erhebung zur Verfolgung von Urheberrechtsverletzungen als rechtmäßig an. Geklagt hatten verschiedene Digital-Rights-Organisationen, unter ihnen La Quadrature du Net gegen das französische Anti-Piraterie-System HADOPI.

Laut dem Gericht ist eine Vorratsdatenspeicherung zulässig, „wenn die nationale Regelung Speichermodalitäten vorschreibt, die eine wirksame strikte Trennung der verschiedenen Kategorien personenbezogener Daten gewährleisten und es damit ausschließen, dass genaue Schlüsse auf das Privatleben der betreffenden Person gezogen werden können.“

Der Europäische Gerichtshof hatte bislang immer gegen eine anlasslose Vorratsdatenspeicherung geurteilt, so zum Beispiel gegen die deutsche Variante der Massenüberwachung. Das Gericht hatte in den letzten Jahren wiederholt eine anlasslose Vorratsspeicherung von Verbindungs- und Standortdaten deutlich abgelehnt.

Gleichzeitig hatte er aber in Ausnahmefällen erlaubt, IP-Adressen zu speichern, um schwere Kriminalität zu bekämpfen und schwere Bedrohungen der öffentlichen Sicherheit zu verhüten. Im letzten Jahr hatte sich schon angedeutet, dass es zu einem anderen Umgang mit der Überwachung kommen könne. Dennoch ist die Enttäuschung bei Datenschützer:innen und Grundrechte-Organisationen über das Urteil groß.

„Möglichkeit der Massenüberwachung“

Erik Tuchtfeld, Co-Vorsitzender von D64 sprach von „Ganz schlechten Nachrichten“.  Chloé Berthélémy vom Dachverband europäischer Digitalorganisationen sagt: „Das heutige Urteil des EuGH zum französischen Anti-Piraterie-System HADOPI stellt eine traurige Wende in der europäischen Rechtsprechung zum Schutz des Grundrechts auf Privatsphäre im Internet dar.“ Der Gerichtshof habe beschlossen, „die bisherige Rechtsprechung zum Zugang zu Daten privater Unternehmen aufzuweichen, um Internetnutzer leichter identifizieren zu können.“ In einem breiteren politischen Kontext der zunehmenden Unterdrückung von Journalistinnen, Menschenrechtsverteidigern und der Zivilgesellschaft in Europa untergrabe dieses Urteil auf gefährliche Weise das Recht, online anonym zu bleiben.

La Quadrature du Net nennt das Urteil in einer Erklärung „enttäuschend“. Der EuGH habe seine bisherige Rechtsprechung erheblich verwässert, was sich nicht nur auf den Fall Hadopi auswirke. „Mit diesem neuen Urteil wird der Zugriff auf IP-Adressen nicht mehr standardmäßig als schwerwiegender Eingriff in die Grundrechte angesehen. Infolgedessen lässt der Gerichtshof die Möglichkeit einer Massenüberwachung des Internets zu“, so die Digitalorganisation aus Frankreich.

Auch La Quadrature stuft das Urteil als „wichtige Wende in der EU-Rechtsprechung“ ein. Der Gerichtshof habe mit dem Urteil den „massenhaften, automatisierten Zugriff auf IP-Adressen genehmigt, die mit der bürgerlichen Identität und dem Inhalt einer Kommunikation verbunden sind“. Dieser Zugriff könne laut dem Gericht sogar zu Bagatellzwecken und ohne vorherige Überprüfung durch ein Gericht oder eine unabhängige Verwaltungsbehörde erfolgen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Facebook und Instagram: EU-Kommission untersucht Desinformation und Drosselung politischer Inhalte

30. April 2024 - 14:39

Kurz vor der Europawahl wird Meta verdächtigt, nicht genug gegen Desinformation zu tun. Die EU-Kommission befürchtet weitere Verstöße gegen den Digital Services Act, etwa erschwerten Datenzugang für Forscher:innen. Auch die Drosselung politischer Inhalte könnte regelwidrig sein.

Die EU-Kommission will wissen, ob Meta-Plattformen genug gegen Desinformation unternehmen. – Gemeinfrei-ähnlich freigegeben durch unsplash.com Brett Jordan

Die EU-Kommission hat heute eine Untersuchung zu Facebook und Instagram eröffnet. Sie verdächtigt beide Plattformen, gegen die Regeln des Digitale-Dienste-Gesetzes (Digital Services Act, DSA) zu verstoßen. Es geht dabei um verschiedene Probleme, unter anderem mit dem Vorgehen gegen Desinformation in Werbung und dem Drosseln von politischen Inhalten.

Die Kommission hatte schon im Oktober, nach dem Anfang des Israel-Hamas-Krieges, erste Informationen zum Umgang mit Desinformation angefordert. Auch damals ging es schon darum, wie auf Facebook und Instagram Wahlen geschützt werden sollen. „Das hier ist ein Fall, der für Monate aufgebaut wurde“, sagte heute eine Beamte der Kommission.

Darf Meta politische Inhalte drosseln?

Die Untersuchung betrifft vier Bereiche. Erster davon ist, wie sehr Meta die Inhalte von bezahlter Werbung kontrolliert. Hier scheine es keine ausreichende Moderation zu geben, sagte gestern ein Kommissionsbeamter. Neben politischen Inhalten gebe es auch immer mehr Werbung für Finanzbetrügereien.

Auch bei organischen Inhalten, die von normalen Nutzer:innen auf den Plattformen gepostet werden, sieht die Kommission Probleme. Die Regeln zur Moderation seien undurchsichtig und restriktiv. Besonders kritisch sei, dass Meta-Plattformen politische Inhalte allgemein zu drosseln scheine. Davon seien Accounts betroffen, die besonders viel politische Inhalte posten würden, so der Kommissionsbeamte.

Bei der Diagnose dieser Probleme stützt sich die Kommission auf die Erkenntnisse unabhängiger Forscher:innen. Die stehen jetzt aber vor einer neuen Hürde: Meta hatte im März angekündigt, das viel genutzte CrowdTangle-Tool im Sommer abschalten zu wollen. Forscher:innen und Journalist:innen haben CrowdTangle bisher genutzt, um Metas Plattformen zu untersuchen. Schon jahrelang hatte Meta nicht mehr in seine Entwicklung investiert. Ein neues Tool namens Meta Content Library soll CrowdTangle ersetzen, wird aber anscheinend nur eingeschränkte Funktionen haben.

Meldemöglichkeiten reichen eventuell nicht aus

Der Funktionsumfang der Content Library reicht der EU-Kommission nicht aus. Sie hat Meta deshalb nun fünf Tage Zeit gegeben, um weitere Informationen zur Abschaltung von CrowdTangle bereitzustellen. Danach will die Kommission über mögliche weitere eventuelle Maßnahmen entscheiden.

Schlussendlich kritisiert die Kommission auch die Meldemöglichkeiten für illegale Inhalte auf Facebook und Instagram. Diese könnten eventuell nicht den Vorschriften des DSA entsprechen, weil sie zum Beispiel nicht einfach genug zu erreichen sind.

Insgesamt vermutet die Kommission, dass Facebook und Instagram 13 verschiedene Vorschriften des Digitale-Dienste-Gesetzes verletzt haben könnten. Meta droht dafür nun eine Strafzahlung von bis zu sechs Prozent des jährlichen weltweiten Umsatzes. Im vergangenen Jahr waren das 126 Milliarden Euro, die Strafe könnte also bis zu 7,5 Milliarden Euro betragen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Civil Liberties Union for Europe: Medienbericht fordert besseren Schutz vor Staatstrojanern

30. April 2024 - 14:10

Die EU brauche strengere Regeln beim Einsatz von Staatstrojanern, fordert die NGO Civil Liberties Union for Europe in einem Bericht zur europäischen Medienlandschaft. Außerdem nehme das Vertrauen in Medien insgesamt ab – auch in Deutschland, wo die Presse verhältnismäßig viel Glaubwürdigkeit genießt.

Bei manchen Demonstrationen wurde gezielt die Presse angegriffen, etwa hier bei einem Bauernprotest in Brüssel. – Alle Rechte vorbehalten IMAGO / Photo News

Die EU-Länder müssten den Einsatz von Staatstrojanern nur auf „außergewöhnlichste Umstände“ einschränken und zudem Journalist:innen ausdrücklich ausnehmen, fordert die Nichtregierungsorganisation Civil Liberties Union for Europe in ihrem aktuellen Bericht zur Medienfreiheit in Europa. Generell müsste Spähsoftware „strikt reguliert“ werden, damit es nicht weiter zu Verletzungen von Grundrechten kommt.

Das Hacken von IT-Geräten mit Spionagewerkzeugen wie Pegasus und Predator sei weiterhin ein Problem in der EU, schreibt die NGO in ihrem Bericht. Im Jahr 2023 seien Journalist:innen in Deutschland, Griechenland, den Niederlanden und Polen Ziel von Angriffen gewesen. Auch habe der Untersuchungsausschuss des EU-Parlaments zu Pegasus im Vorjahr festgestellt, dass unter dem Vorwand „nationaler Sicherheit“ Journalist:innen überwacht worden waren, unter anderem in Polen, Ungarn und Griechenland. Konsequenzen sind daraus jedoch bis heute nicht erwachsen.

Mit dem Einsatz von Spähsoftware in den Ländern seien fundamentale Grundrechte verletzt und die Demokratie gefährdet worden, so der Bericht. In Griechenland, verweist die NGO auf die Untersuchung des EU-Parlaments, seien damit nicht nur Journalist:innen, Politiker:innen und Geschäftsleute überwacht worden. Das Land habe die Spionagesoftware Predator zudem in Staaten mit einer schlechten Menschenrechtsbilanz exportiert. Zugleich hätte etwa Grigoris Dimitriadis, inzwischen zurückgetretener Generalsekretär des griechischen Ministerpräsidenten Kyriakos Mitsotakis, zahlreiche Journalist:innen mit sogenannten SLAPP-Klagen überzogen, die über seine Beziehungen zu der Spyware-Firma berichtet hatten.

Einschüchterungsversuche gegenüber Journalist:innen

Als SLAPP-Klage gilt ein rechtsmissbräuchliches Vorgehen, mit dem Kritiker:innen zum Schweigen gebracht werden sollen. Zu solchen strategischen Klagen gegen Journalist:innen sei es häufig in Ländern wie Kroatien, Griechenland, Italien, den Niederlanden und Schweden gekommen, schreibt die NGO. Dagegen hat die EU im vergangenen Jahr eine eigene Richtlinie auf den Weg gebracht, endgültig verabschiedet wurde sie diesen März.

Gemeinsam mit dem ebenfalls neuen Medienfreiheitsgesetz, dem European Media Freedom Act (EMFA), seien nun zwei Gesetze in Kraft, die Journalist:innen insgesamt besser schützen sollten – allerdings mit dem Wermutstropfen, dass der Einsatz von Spähwerkzeugen gegen Journalist:innen nicht restlos europaweit verboten wurde. Beide Gesetze und ihre nationale Umsetzung müssten nun von der EU-Kommission eng begleitet und überwacht werden, fordert die NGO.

Ähnliches gelte für den Digital Services Act (DSA), der erst kürzlich vollständig in Kraft getreten ist. Hierbei müsste die EU-Kommission gemeinsam mit den europäischen Regulierungsbehörden sicherstellen, dass insbesondere die sehr großen Online-Dienste wie Google oder Facebook die Vorgaben umsetzen. Wie beim DSA wäre es wünschenswert, Daten über die Entfernung oder Sperrung von Inhalten im Rahmen des EMFA strukturiert zu veröffentlichen. Dies würde Journalist:innen und der Zivilgesellschaft dabei helfen, die Methoden verschiedener Online-Dienste sowie die Rolle, die die Regulierer und die Kommission bei diesem Ansatz spielen, zu analysieren und zu vergleichen.

Medienkonzentration und Glaubwürdigkeit

Insgesamt sei in vielen EU-Ländern eine hohe Medienkonzentration feststellbar, selbst in Ländern, in denen die Freiheit der Presse hochgehalten und von den jeweiligen Regierungen und Parteien geachtet werde. Besonders hoch falle die Konzentration in Kroatien, Frankreich, Ungarn, den Niederlanden, Polen, Slowakei und Slowenien aus. Dort würde die Mehrheit der Medienhäuser von einer Handvoll Individuen kontrolliert, was die Diversität der Berichterstattung gefährde und zu einer verzerrten Berichterstattung führen könne.

In Deutschland hätte hingegen eine WDR-Studie ergeben, dass die Berichterstattung mehrheitlich als glaubwürdig wahrgenommen werde. Obwohl es sich um vergleichsweise hohe Werte handle, habe im Zuge der Corona-Pandemie das Vertrauen in die Medien dennoch abgenommen. Hierbei lasse sich jedoch ein Riss zwischen Ost und West feststellen. So sei eine Untersuchung der Konrad-Adenauer-Stiftung zum Schluss gekommen, dass das Vertrauen in öffentlich-rechtliche Medien in Ostdeutschland bei 58 Prozent liege, im Westen jedoch bei 73 Prozent. Auch sei es wiederholt zu Attacken gegenüber Journalist:innen gekommen, meist in rechtsextremen, verschwörungsideologischen und antisemitischen Kontexten.

Beim Zugang zu Informationen lege der Presse jedoch auch die Regierung Steine in den Weg, kritisiert die NGO. Anders als im Koalitionsvertrag der Ampelkoalition versprochen, sei etwa bis heute kein presserechtlicher Auskunftsanspruch gesetzlich verankert. Zudem gebe es weiterhin große Unterschiede bei Informationsfreiheit- und Transparenzgesetzen der Bundesländer, bemäkelt Civil Liberties Union for Europe. Auch in Bundesländern wie Sachsen, die solche Gesetze erlassen haben, gebe es breite Ausnahmen, um Auskünfte zu verweigern, beklagt die NGO – und erst recht in Bundesländern wie Bayern oder Niedersachsen, die solche Gesetze bis heute vermissen lassen.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker

Österreich: Ermittlungen gegen Bürgerrechtsorganisation wegen angeblichen Hackings

30. April 2024 - 9:01

Immer wieder geraten Menschen oder Organisationen, die ethisch verantwortungsvoll Sicherheitslücken aufdecken, in den Fokus von strafrechtlichen Ermittlungen. Dieses Mal hat es Österreichs bekannteste Datenschutz-NGO epicenter.works erwischt. Die Ermittlungen wurden erst nach zwei Jahren eingestellt.

Trägt zwar eine dunkle Sonnenbrille, ist aber kein böser Hacker: Thomas Lohninger. – CC-BY 2.0 Cajetan Perwein

Da staunte Thomas Lohninger von epicenter.works nicht schlecht, als er im Dezember 2022 erfuhr, dass die Staatsanwaltschaft mit Ermächtigung des österreichischen Gesundheitsministers seit einem Jahr gegen ihn wegen angeblichen Hackings ermittelte. Die Datenschutz-NGO hatte zusammen mit der österreichischen Tageszeitung „Der Standard“ eine Sicherheitslücke im Epidemiologischen Meldesystems aufgedeckt und diese vor Veröffentlichung nach den Prinzipien des responsible disclosure dem Gesundheitsministerium mitgeteilt, damit dieses sie schließen konnte.

Die gemeinsame Recherche hatte ein schwerwiegendes Sicherheitsproblem in Österreichs zentralem Meldesystem für Corona-Daten festgestellt: Demnach wäre es für Unbefugte möglich gewesen, personenbezogene Daten abzufragen und falsche Laborergebnisse einzuspielen. Der Zugriff auf die Schnittstelle zum Epidemiologischen Meldesystem (EMS) war durch ein nicht-personalisiertes Zertifikat möglich. Wer ein solches Zertifikat hatte, konnte auf das System zugreifen. Insgesamt waren laut der Recherche mehr als 225 solcher Zertifikate im Umlauf, mindestens eines davon lief auf eine Labor-Firma, die schon seit mehreren Monaten nicht mehr dazu berechtigt hätte sein sollen. Es gab keine Bindung auf IP-Adressen von Laboren, welche den Zugriff begrenzt hätte.

Ermächtigung im Namen des Ministers

Nachdem Standard und epicenter.works sich beim von den Grünen geführten Gesundheitsministerium gemeldet hatten, schloss dieses die Lücke vor Veröffentlichung der Berichte am 16. Dezember. Eine Woche später stellten nach Angabe von epicenter.works jedoch zwei hochrangige Beamte aus dem Gesundheitsministerium Anzeige wegen § 118a StGB (Widerrechtlicher Zugriff auf ein Computersystem) und ermächtigten so die Strafverfolgung gegen die NGO im Namen des damaligen Ministers. Das Delikt kann bei einer Verurteilung mit bis zu drei Jahren Haft bestraft werden.

Erst ein Jahr später erfährt die Datenschutzorganisation, dass gegen sie ermittelt wird. Sie wendet sich an den Nachfolger des Gesundheitsministers, beschwert sich per Brief (PDF), fordert die Rücknahme der Ermächtigung – und erhält keine Antwort. Erst ein gutes Jahr später, Mitte Februar 2024, wird das Verfahren dann endlich eingestellt. Es dauerte unter anderem so lange, weil das Verfahren mit einem weiteren juristischen Verfahren gegen den Verursacher der Sicherheitslücke verknüpft war und deswegen jeder Schritt berichtspflichtig war.

Lohninger hält eine politische Motivation der Anzeige nicht für ausgeschlossen. Der Verein habe in der Covid-Pandemie eine Vielzahl an Sicherheitslücken und Datenschutzproblemen im Gesundheitsbereich aufgezeigt. „Wir fragen uns, ob die Anzeige gegen uns damit zu tun hat“, so Lohninger gegenüber netzpolitik.org.

Der Vorstand der Datenschutz-NGO weiter:

Es ist alarmierend, dass über zwei Jahre gegen uns als Datenschutzorganisation ermittelt wird, obwohl wir nur unseren Job als Public Watchdog gemacht haben. Anstatt uns um den Schutz der Daten der Bevölkerung zu kümmern und wie bisher Sicherheitslücken den Verantwortlichen zu melden, waren auch wir mit der Strafverfolgung gegen uns abgelenkt.

Im Gesundheitsministerium wehrt man sich gegen diesen Vorwurf. Eine Sprecherin sagt gegenüber netzpolitik.org, dass das Ministerium zur Anzeige verpflichtet gewesen sei, deswegen habe es die Ermächtigung auch nicht später zurücknehmen können. „Selbstverständlich gab es kein Motiv, die Arbeit von epicenter.works zu behindern“, so die Sprecherin weiter. „Kontrolle ist wichtig in unserer Demokratie. Das gilt vor allem, wenn es um den Schutz von Gesundheitsdaten geht. NGOs wie epicenter.works leisten mit ihrer Arbeit hierfür einen wichtigen Beitrag.“

Die warmen Worte helfen der Datenschutzorganisation im Nachhinein nur wenig, ihr sind im Verfahren für interne Bearbeitung und juristische Beratung fast 15.000 Euro Kosten entstanden, von denen die Anwaltskosten immerhin von der Rechtsschutzversicherung übernommen wurden.

Änderungen im Hackerparagraf gefordert

Doch auch politisch ist der Fall ein Problem. Epicenter spricht von einer „abschreckenden Wirkung“ auf alle Sicherheitsforscher:innen und NGOs, die ähnliche Sicherheitslücken den Verantwortlichen aus Angst vor Strafverfolgung vermutlich nicht mehr melden werden. „Moralisch richtiges Handeln wird nach derzeitiger Rechtslage bestraft, was uns alle unsicherer macht“, sagt Lohninger.

Die Bürgerrechtsorganisation fordert nicht erst seit dem Verfahren gegen sich selbst, im Hackerparagrafen „eine explizite gesetzliche Ausnahme für den verantwortlichen Umgang mit Sicherheitslücken zu schaffen“, die dann unter gewissen Voraussetzungen immer straffrei bleiben soll. In einem Hintergrundpapier (PDF) hat sie die Gründe dafür dargelegt.

Offenlegung:
Thomas Lohninger hat in der Vergangenheit Artikel bei netzpolitik.org geschrieben.

Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.

Kategorien: Externe Ticker