Sie werden im Mai auf der re:publica 25 auf dem Panel „Am I Not Human? Data workers behind our AI systems and social media platforms speak out“ sprechen, unterstützt von der Initiative Gig Economy. Was bedeutet „Bin ich kein Mensch?“ für Sie persönlich – besonders im Kontext Ihrer Arbeit im Bereich Daten-Labeling?
Ich habe 2017 mit dem Daten-Labeling begonnen. Von außen betrachtet wirkte es simpel, aber hinter den Kulissen standen wir unter ständigem Druck, täglich eine Genauigkeitsrate von über 95 % zu erreichen. Ein einziger Fehler – selbst ein Ergebnis von 94 % – bedeutete Strafe: Keine Prämien, keine Anerkennung, verpflichtende Arbeitsschichten am Samstag. Ich habe Zeit und Energie investiert in der Hoffnung, als Pionierin im Bereich künstliche Intelligenz (KI) wahrgenommen zu werden. Doch die Realität war ein System, das Perfektion fordert, aber seine Mitarbeitenden dabei schlecht behandelt.
Als der Druck unerträglich wurde, plante ich meinen Ausstieg. Ich dachte, ich würde in ein stabileres Umfeld wechseln, doch es wurde schlimmer. In der nächsten Firma galt ich als „unabhängige Auftragnehmerin“. Damit verlor ich jeden Schutz: Keine Sozialleistungen, keine Rechte, nur unsichere Monatsverträge. Wir mussten unser Einkommen beschränken – nicht aus freien Stücken, sondern aus Not. Während das feste Firmenpersonal an Events und Vergünstigungen teilnahm, waren wir „unabhängige Auftragnehmende“ bloße Schatten, ausgeschlossen und entmenschlicht. Unsere Urlaubstage wurden uns vorgegeben. Unsere Stimmen wurden durch Drohungen und Diskriminierung zum Schweigen gebracht. Wir sind die Arbeitskraft hinter der KI, aber vom Gewinn ausgeschlossen.
Da ist der Grund, warum ich frage: Bin ich kein Mensch? Habe ich kein Recht auf Ruhe, faire Bezahlung, Würde und Anerkennung? Auf Verträge, die mich schützen, statt mir Rechte zu entziehen? Tech-Unternehmen florieren durch unsere Arbeit und werfen uns weg, sobald wir den Mund aufmachen. Big Tech behandelt uns wie austauschbare Teile, doch ich bin kein Teil, kein Werkzeug, kein Geist. Ich bin ein Mensch und verlange, auch so behandelt zu werden.
Künstliche Intelligenz und soziale Medien basieren maßgeblich auf der unsichtbaren Arbeit von Datenabeiter*innen– und doch haben die meisten Menschen noch nie davon gehört. Können Sie uns schildern, was Ihre Arbeit tatsächlich umfasst? Wie sieht ein typischer Arbeitstag aus?
Ich habe an verschiedenen KI-Projekten gearbeitet, darunter selbstfahrende Autos, Staubsaugerroboter, medizinische Diagnostik und Inhaltsmoderation. Das bedeutete: Wir zogen Kästchen um Personen und Verkehrsschilder, lehrten die Roboter, Schmutz zu erkennen und Spielzeug zu umfahren. Anfangs schien es machbar, doch die Anforderungen stiegen. Die Aufgaben wurden komplexer, der Druck größer. Am Ende arbeitete ich mit medizinischen Daten, also Röntgenbildern und Scans, und brachte der KI bei, Körper zu lesen. Ich wusste jedoch nicht, wer diese Daten nutzen würde oder welche Auswirkungen sie auf das echte Leben haben könnten. Dabei verdiente ich so wenig, dass ich manchmal 20 Stunden am Tag arbeitete, nur um über die Runden zu kommen.
Doch dann kamen Projekte, die moralische und ethische Grenzen überschritten. Die Firmen versprachen ein einfaches Daten-Labeling, verlangten dann aber persönliche Fotos und Videos von unseren Familien, ohne transparent über die Verwendung zu sein. Das war manipulativ und invasiv. Ich habe auch gewalttätige, pornografische und drogenbezogene Inhalte gekennzeichnet: Blut, sexuelle Gewalt, verstörende Bilder. Es gab keine psychologische Betreuung und keine Warnung, nur eine kalte Benutzeroberfläche und knappe Deadlines. Das ist die Realität der KI-Entwicklung weltweit: Die Arbeit ungeschützter, überlasteter und unsichtbarer Menschen. Wir bringen Maschinen das Denken bei und tragen dabei die dunkelsten Seiten des Internets in uns. Und doch fragt niemand von uns, ob es uns gut geht.
Ein Tag im Leben eine*r Datenkennzeichner*in gleicht einem Überlebenskampf. Mein Tag begann mittags. Ich bereitete mir Essen vor und arbeitete dann von 14 Uhr bis 3 Uhr nachts. Sobald ich saß, durfte ich nicht aus dem Takt kommen. Manchmal gab es keine Aufgaben, aber ich durfte nicht aufstehen. Ich musste am Bildschirm kleben bleiben, während sich die Seite immer wieder automatisch aktualisierte – in der Hoffnung, dass eine Aufgabe in meiner Warteschlange landete. Die Hoffnung war das Einzige, was konstant blieb. Alles andere war ungewiss.
Sie sind Vorständin der neu gegründeten Data Labellers Association. Wie setzt sich der Verband für bessere Arbeitsbedingungen ein und welche Wirkung konnten Sie bisher beobachten?
Um Anerkennung und Rechte für Datenarbeiter*innen zu erkämpfen, sprechen wir gezielt mit wichtigen lokalen und internationalen Akteuren. Bei einem Treffen in Naivasha, Kenia, im Dezember 2024 als Vorbereitung für die Internationale Arbeitskonferenz im Juni 2025 zum Thema Plattformarbeit berichteten wir von Ausbeutung und forderten eine arbeitnehmerfreundlichere Politik. Zudem unterzeichneten wir einen offenen Brief an den damaligen US- Präsident Joe Biden, in dem wir Rechenschaftspflicht für Missstände in der KI-Lieferkette forderten.
Diese Dynamik hält an. So habe ich direkt mit dem US-Unterstaatssekretär für Arbeit gesprochen und betont, wie schwer es ist, sich in einem System zu organisieren, das uns zum Schweigen bringen soll. In Kenia haben wir Vorschläge zum „Business Law Amendment Act 2024“ eingereicht und beteiligen uns aktiv an seiner Ausgestaltung. Die Wirkung ist spürbar: Von einem „Wer sind diese Leute?“ hin zu einem „Wir hören euch.“ Die Menschen beginnen zu verstehen, dass KI auf der unsichtbaren Arbeit echter Menschen basiert. Wir sind nicht mehr stumm, sondern gestalten Politik, fordern, dass sich etwas ändert und machen uns sichtbar.
Die stärkste Veränderung passiert vor Ort. Immer mehr Datenkennzeichnende besuchen Workshops, erheben ihre Stimme und organisieren sich. Die Angst weicht. Die Menschen erkennen, dass sie nicht alleine sind und dass kollektive Stimmen Macht haben. Das Schweigen bricht auf und wird durch Solidarität und der Forderung nach Würde ersetzt. Das ist Wandel – in der Politik und im Selbstverständnis der Menschen.
Kenia und Deutschland haben eine Zusammenarbeit begonnen, um die Arbeitsstandards auf digitalen Plattformen und in der KI-Lieferkette zu verbessern. Welche echten Chancen eröffnet diese internationale Kooperation Ihrer Meinung nach für Datenarbeiter*innen?
Hierbei geht es um mehr als nur Politik: Es geht um die Lebensgrundlage von Tausenden. Stellen Sie sich eine alleinerziehende Mutter in Nairobi vor, die 16 Stunden am Tag Daten für KI kennzeichnet und dabei trotzdem kaum ihre Miete zahlen kann. Oder an Ladi Anzaki, eine junge nigerianische TikTok-Moderatorin, die starb, weil sie aufgrund ihres Vertrags nicht nach Hause reisen durfte. Diese unsichtbaren Arbeiterinnen wurden zu lange ignoriert.
Die deutsch-kenianische Partnerschaft kann das ändern: Durch faire Verträge, angemessene Löhne und den Zugang zu Gesundheitsversorgung. Sie erkennt Datenkennzeichner*innen als Fachkräfte mit Würde an. Am wichtigsten ist, dass sie Räume für selbstorganisierte Interessenvertretung schafft, in denen Betroffene ihre Bedingungen aktiv einfordern können. Wenn Kenia und Deutschland hier erfolgreich sind, kann das zeigen, dass technologischer Fortschritt Leben verbessern und globale Standards für Gerechtigkeit und Verantwortung setzen kann. Hinter jedem KI-Fortschritt stehen menschliche Hände und Herzen – es ist höchste Zeit, dass sie Schutz und Respekt erhalten.
Abschließend: Wenn Sie die Zukunft der digitalen Arbeit mitgestalten könnten, wie würde ein faires, inklusives und menschenwürdiges digitales Arbeitsumfeld aussehen?
Eine faire Behandlung geht über die Bezahlung hinaus. Sie bedeutet einen regulären Acht-Stunden-Arbeitstag und ein Einkommen, das ein würdevolles Leben ermöglicht. Wochenenden gälten nicht als normale Schicht, sondern als Überstunden. Es bedeutet echte Sozialleistungen, Gesundheitsversorgung und einklagbare Rechte. Datenkennzeichner*innen – wie alle Arbeiter*innen – müssen als Menschen gesehen werden. Urlaub ist ein Recht und kein Gefallen. Psychische Gesundheit ist essenziell und kein Luxus. Niemand sollte seine Identität für Profit verleugnen müssen.
Über allem steht Anerkennung. Jeder KI-Durchbruch beruht auf der unsichtbaren Arbeit von Datenkennzeichner*innen – und diese Arbeit verdient mehr als Ausbeutung. Anerkennung bedeutet auch Beteiligung: Faire Behandlung und einen Anteil an den Gewinnen, die sie miterschaffen – genauso wie bei Ingenieur*innen oder Führungskräften. Ohne sie gäbe es keinen Fortschritt in der KI.
Wir brauchen verbindliche Regelungen, die alle Arbeitende weltweit schützen. Wir fordern Gerechtigkeit, Anstand und einen fairen Anteil an der Zukunft, die wir selbst mit aufbauen. Das ist nicht zu viel verlangt.