Mutige gestalten die Zukunft
Wir nutzen KI. Obwohl…
Starter:innen News

Wir nutzen KI. Obwohl…

02.03.2026
14 min Lesezeit

Startnext setzt Künstliche Intelligenz ein: bewusst, mit Leitplanken, und trotzdem mit einem unangenehmen Gefühl im Bauch. Warum wir nicht wegschauen können und was wir an KI wirklich problematisch finden.

Startnext nutzt Künstliche Intelligenz. In internen Abläufen, in der Entwicklung, im Support, in der Beratung für Starter:innen. KI macht uns schneller und direkter. Gleichzeitig wissen wir: Wer diese Technologie einsetzt, muss wissen, was dahintersteckt, was sie kostet, wessen Interessen sie trägt und welche Fragen sie aufwirft.

An meiner Grundkritik an Algorithmen hat sich nichts geändert. KI ist die Fortführung längst etablierter Praktiken der Plattformökonomie, nur mächtiger.

Das Unbequeme zuerst. Das Gute kommt in Teil 2.

Zuerst: Was KI nicht ist

KI ist keine Intelligenz. Das ist keine akademische Kleinigkeit, das ist ein fundamentales Missverständnis, das sich durch die gesamte öffentliche Debatte zieht. Was wir heute „KI" nennen, sind hochleistungsfähige statistische Systeme, die Muster in riesigen Datenmengen erkennen und daraus die wahrscheinlichste Antwort berechnen. Beeindruckend. Nützlich. Aber nicht dasselbe wie Denken, Verstehen oder Urteilen.

KI lügt nicht aus böser Absicht. Sie halluziniert, weil das Modell genau das tut, wofür es trainiert wurde: die wahrscheinlichste Antwort liefern. Auch wenn diese Antwort falsch ist. Auch wenn sie gefährlich ist. Das System weiß das nicht. Es kann es nicht wissen. Wer das im Hinterkopf behält, verwendet KI anders: als Werkzeug, nicht als Autorität.

Die Herkunft, die wir verdrängen

Die Forscherin Kate Crawford beschreibt in ihrem Buch Atlas der KI präzise, was in der öffentlichen KI-Debatte meist ausgeblendet wird: KI ist kein immaterielles Phänomen. Sie hat eine Geografie, eine Geschichte und einen Körper. Lithiumminen in Chile. Kobaltvorkommen im Kongo. Kühlwasser-intensive Rechenzentren in wasserarmen Regionen. Militärprogramme, aus deren Forschung viele der heutigen Grundlagen entstanden sind.

Die Grundlagen von Machine Learning wurden nicht in Tüftlergaragen des Silicon Valley entwickelt, sondern in staatlich finanzierten Forschungsprogrammen, die der Überwachung, der Entscheidungsfindung in Konflikten und der Signalauswertung dienten. Heute liegen diese Technologien in den Händen einiger weniger Konzerne, die tief miteinander vernetzt sind und starke Anreize zur Gewinnmaximierung und zur Zentralisierung von Macht haben.

Kate Crawford: Atlas der KI (Hanser, 2021) — Pflichtlektüre für alle, die KI nicht nur nutzen, sondern verstehen wollen. Crawford zeigt, was Sprachmodelle wirklich kosten: an Energie, Wasser, Bodenschätzen und demokratischer Kontrolle.

Die Rechnung, die niemand zahlt

Das Training eines einzigen großen Sprachmodells wie GPT-3 verbrauchte laut Forschern der UC Berkeley über 1.200 Megawattstunden Strom, vergleichbar mit dem Jahresverbrauch mehrerer hundert Haushalte. Microsofts Wasserverbrauch stieg im Jahr 2022 um 34 Prozent, maßgeblich durch den Ausbau von KI-Infrastruktur. Diese Kosten sind derzeit nicht in den Preisen für KI-Dienste enthalten. Sie werden externalisiert: auf die Umwelt, auf Abbauregionen im Globalen Süden, auf zukünftige Generationen. Die Daten aus dem Jahr 2025 sind noch viel atemberaubender, es werden Milliarden investiert und subventioniert. Wenn Strom und Wasser knapp werden, dann werden sie vor allem für die Endverbraucher teuerer und unzugänglicher.

Das ist kein Widerspruch, den wir auflösen können. Aber ein Widerspruch, den wir benennen müssen, wenn Startnext als wertegeleitete Organisation KI empfiehlt. Sonst sind wir nicht ehrlich zu uns selbst.

Das Bias-Problem ist kein Bug. Es ist ein Feature.

KI lernt aus Daten. Und die Daten, aus denen diese Systeme gelernt haben, spiegeln die Welt wider, wie sie bisher war, nicht wie sie sein sollte. Texte, die von Männern geschrieben wurden, dominieren. Westliche Perspektiven überwiegen. Historisch marginalisierte Stimmen sind unterrepräsentiert. Das Ergebnis: Systeme, die unbewusst eine bestimmte Art von Sprache, Projekten und Menschen favorisieren, nicht weil das jemand so entschieden hat, sondern weil es in den Trainingsdaten so steckt.

Erschwerend kommt hinzu, was Aya Jaff in Broligarchie herausarbeitet: Eine kleine, homogene Gruppe von Männern entscheidet darüber, wie KI-Systeme trainiert, ausgerichtet und vermarktet werden. Das ist keine Verschwörung, sondern eine strukturelle Tatsache der Tech-Industrie. Wer entscheidet, welche Daten relevant sind, welche Outputs erwünscht sind und welche Risiken toleriert werden, der prägt die Technologie. Und diese Gruppe ist weder divers noch repräsentativ für die Gesellschaft, die die Technologie nutzen soll.

Aya Jaff: Broligarchie (2024) — Jaff analysiert, wie eine Handvoll Silicon-Valley-Akteure die globale Technologieentwicklung dominiert, also warum das ein Problem für alle anderen ist, die diese Technologien nutzen.

Und die Daten? Wessen Daten?

Die meisten großen Sprachmodelle wurden mit Texten trainiert, die aus dem Internet gecrawlt wurden. Texte von Journalist:innen, Schriftsteller:innen, Wissenschaftler:innen, Blogger:innen. Sehr wahrscheinlich auch von Startnext-Projekten, von euren Kampagnentexten, von Geschichten, die ihr mit Herzblut geschrieben habt. Ohne Erlaubnis, ohne Vergütung, oft ohne Wissen der Urheber:innen.

Das ist falsch. Und es ist symptomatisch für eine Industrie, die sich selbst die Regeln schreibt und dabei die Interessen derer, auf deren Arbeit sie aufbaut, konsequent ignoriert. Kein einziger der großen KI-Anbieter hat bisher eine vollständige, transparente Antwort darauf gegeben, wie die Lizenzsituation ihrer Trainingsdaten geregelt ist. Das ist ein Kontrollverlust, den wir als Gesellschaft fast ohne öffentliche Debatte akzeptiert haben.

Dahinter steckt ein Gedanke, der selten so klar benannt wird, wie er verdient: Das Wissen, auf dem diese Modelle trainiert wurden, ist keine Privatleistung weniger Unternehmen. Es ist das kollektive intellektuelle Erbe der Menschheit: Bücher, Forschung, Debatten, Kunst, Alltagssprache, jahrhundertelang aufgebaut von Millionen Menschen. In der Ökonomie gibt es einen Begriff dafür: Allmende. Gemeingut. Dinge, die niemandem allein gehören, weil sie alle gemeinsam geschaffen haben.

Was gerade passiert, ist eine neue Form der Einfriedung dieses Gemeinguts. Der Begriff kommt aus dem Mittelalter, als Gemeinschaftsland in Privatbesitz umgewandelt wurde, zum Schaden derer, die es bewirtschaftet hatten. Das Muster wiederholt sich: Das kollektive Wissen der Menschheit wird eingelesen, komprimiert, patentiert und dann als Produkt zurückverkauft. Cory Doctorow, Autor und einer der schärfsten Beobachter der Digitalwirtschaft, beschreibt die Grundidee so: „Universal access to human knowledge is in our grasp, for the first time in the history of the world." Was er meint: Das war das Versprechen des Internets. KI könnte dasselbe leisten. Aber nicht, wenn das Wissen der Vielen in den Händen weniger privatisiert wird.

Tim Berners-Lee, Erfinder des World Wide Web, bringt es noch direkter auf den Punkt: „If we do not own our data, we will have no power and no say in our future." Und die Ökonomin Mariana Mazzucato ergänzt die politische Dimension: Die Anreize rund um KI seien „auf Rentenextraktion ausgerichtet", große Konzerne als Mittler, die Profite auf Kosten aller anderen anhäufen. Ohne aktives Gegensteuern von Staaten und Gesellschaft werde KI keine neuen Möglichkeiten schaffen, sondern bestehende Ungleichheiten verstärken.

Die Frage „Wessen Daten?" ist also keine urheberrechtliche Spitzfindigkeit. Sie ist eine Grundsatzfrage darüber, wem die Früchte kollektiver menschlicher Arbeit gehören und wer das Recht hat, darüber zu entscheiden.

Was die Welt gerade fordert. Und wir auch.

Mitte/Ende Februar 2026 fand in Neu-Delhi der India AI Impact Summit statt, der bisher größte KI-Gipfel der Geschichte mit ca. 90 unterzeichnenden Nationen und einer Botschaft, die sich wie eine direkte Antwort auf die oben beschriebenen Probleme liest. Premierminister Narendra Modi hat dort Forderungen formuliert, die Startnext ohne Zögern unterschreiben würde.

Modis schärfste Forderung galt der Datensouveränität als Grundrecht. Er nannte das globale Muster beim Namen: „AI Extractivism", das Muster, in dem Daten aus dem Globalen Süden genutzt werden, von kleinen Kreativen, Vereinen und Projekten überall, um Modelle zu trainieren, für deren Nutzung diese Menschen dann zahlen müssen. Die Daten als Rohstoff, der Profit als Exportgut. Eine politische Entscheidung, die als technische verkauft wird.

Ebenso klar war seine Forderung nach offenen Systemen. KI sei nur dann wirklich nützlich, „wenn sie geteilt wird und ihre Kernsysteme offen sind." Ein Satz, der sich direkt an die wenigen Konzerne richtet, die heute entscheiden, wer Zugang bekommt, zu welchem Preis und unter welchen Bedingungen. Die Delhi Declaration, die ca. 90 Länder unterzeichneten, fordert explizit ein inklusives, sicheres und nachhaltiges KI-Ökosystem, als Gegenentwurf zur aktuellen Realität.

Konkret schlug Indien eine globale Compute-Bank vor, modelliert nach dem eigenen subventionierten GPU-Zugang für umgerechnet weniger als einen Euro pro Stunde. Wer keine Rechenleistung hat, kann KI weder entwickeln noch fair einsetzen. Rechenleistung ist die neue Infrastruktur. Sie kann nicht allein in privaten Händen liegen.

Modis übergreifende Forderung war die nach einer menschenzentrierten KI, nicht einer maschinenzentrierten. Das klingt einfacher, als es ist. Denn menschenzentriert bedeutet: Systeme, die erklärbar sind. Entscheidungen, die demokratisch kontrollierbar sind. Technologie, die den Menschen dient, der sie nutzt, nicht dem Geschäftsmodell des Anbieters.

Was Modi in Neu-Delhi fordert, hat Europa bereits in verbindliches Recht gegossen. Der EU AI Act, verabschiedet als Verordnung (EU) 2024/1689, ist seit August 2024 in Kraft und ab August 2026 für den Großteil der Bestimmungen anwendbar. Er ist das erste umfassende KI-Rechtsrahmenwerk weltweit. Transparenz ist darin keine Option, sondern Pflicht. Systeme, die über Lebenschancen entscheiden, müssen menschlicher Kontrolle unterliegen. Und der Gesetzestext formuliert das Ziel so, wie es auch Modi formuliert hätte: KI soll „ein Werkzeug für die Menschen und eine Kraft für das Gute in der Gesellschaft sein", mit dem Ziel, das menschliche Wohlergehen zu steigern.

Dass Europa hier Vorreiter ist, hat einen Grund. Die EU hat den Aufstieg der Plattformökonomie miterlebt und dabei gelernt, was passiert, wenn man globale Infrastruktur einer Handvoll privater Konzerne überlässt. Die DSGVO war ein erster Versuch, die demokratische Kontrolle zurückzugewinnen. Der AI Act ist der konsequente nächste Schritt. Ursula von der Leyen hat sich seit 2019 zu diesem Gesetzgebungsprozess bekannt, nicht weil Regulierung einfach ist, sondern weil das Versäumnis der Vergangenheit gezeigt hat, was die Abwesenheit klarer Regeln kostet. Was in Brüssel Gesetz ist, bleibt weltweit noch immer Ausnahme.

Das sind keine utopischen Forderungen. Das sind Mindeststandards. 90 Länder haben sie in Neu-Delhi unterschrieben. Aber eine Deklaration ist kein Vertrag. Und was passiert, wenn ein Unternehmen genau diese Grundsätze nicht auf einem Gipfel, sondern gegenüber dem mächtigsten Militärapparat der Welt verteidigen will?

Was passiert, wenn man diese Linien verteidigt

Dafür muss man nicht in die Zukunft schauen. Es reicht, auf die letzte Februarwoche 2026 zu blicken.

Anthropic, das Unternehmen hinter dem KI-Modell Claude und gegründet von Menschen, die OpenAI aus Sicherheitsbedenken verlassen haben, hatte als einziger großer kommerzieller KI-Anbieter seine Modelle auf dem klassifizierten Netzwerk des US-Verteidigungsministeriums im Einsatz. Als das Pentagon bei der Vertragsverlängerung neue Klauseln forderte, die Anthropics eigene Schutzmechanismen faktisch ausgehebelt hätten, zog Anthropic eine klare Grenze: Keine Nutzung von Claude für vollständig autonome Waffensysteme. Keine Massenüberwachung amerikanischer Bürger:innen. Diese zwei Punkte waren nicht verhandelbar.

Das Pentagon akzeptierte das nicht. Verteidigungsminister Pete Hegseth bezeichnete Anthropic daraufhin als „Supply-Chain Risk to National Security", eine Klassifizierung, die bisher für ausländische Staatsfeinde reserviert war und nun erstmals gegen ein amerikanisches Unternehmen eingesetzt wurde. Präsident Trump nannte Anthropic auf Truth Social „left-wing nut jobs". Alle Behörden und Auftragnehmer des Militärs wurden angewiesen, die Zusammenarbeit einzustellen.

Stunden später gab OpenAI einen eigenen Vertrag mit dem Pentagon bekannt. Sam Altman räumte selbst ein, der Deal sei „definitely rushed" gewesen: „die Optik ist nicht gut." OpenAI hatte nominell dieselben roten Linien wie Anthropic formuliert: keine autonomen Waffensysteme, keine Massenüberwachung. Nur eben verankert in einer anderen Vertragslogik: Das Pentagon dürfe OpenAIs Technologie für „alle rechtmäßigen Zwecke" nutzen, wobei OpenAI intern vorbehält, was das bedeutet. Eine Formulierung, die einen entscheidenden Unterschied macht: vertragliche Verbindlichkeit oder Selbstverpflichtung ohne Durchsetzungsmechanismus.

Was bleibt? Anthropic klagt gegen die Designation. Das Verfahren wird Jahre dauern. Und in der Zwischenzeit, so ein Rechtsexperte gegenüber US-Medien, „fragt jeder General Counsel in jedem Fortune-500-Unternehmen mit Pentagon-Exposure eine einzige Frage: Ist die Nutzung von Claude das Risiko wert?" Der Schaden ist damit bereits angerichtet, unabhängig vom Urteil.

Was dieser Konflikt zeigt, ist unbequem: Die Frage, unter welchen Bedingungen KI militärisch akzeptabel ist, entscheidet sich nicht in Deklarationen, sondern in Vertragsklauseln und Machtpolitik. Und sie zeigt, dass ethische Leitlinien keinen Wert haben, wenn sie nicht vertraglich einklagbar sind. Anthropic hat versucht, genau das zu tun, und wurde dafür bestraft. OpenAI hat einen Kompromiss gefunden, der schneller und pragmatischer war, aber weniger verbindlich. Beide Wege haben einen Preis.

Für alle, die sich fragen, welchen KI-Anbieter sie nutzen sollten, ist das eine wichtige Erkenntnis: Die Wahl des Anbieters ist immer auch eine politische und ethische Entscheidung. Nicht nur eine technische. Welche Werte ein Unternehmen unter Druck verteidigt, sagt mehr über seine Haltung als jeder Mission-Statement-Text.

Boykott ist keine echte Option

Was bleibt nach all dem? Externe Kosten, die niemand trägt, Daten, die ohne Erlaubnis genutzt wurden, Machtstrukturen, die sich verfestigen, Deklarationen, die unter Druck zerbrechen. Ein Unternehmen, das ethische Grenzen verteidigt hat und dafür als nationales Sicherheitsrisiko eingestuft wurde. Das ist kein Randphänomen. Das ist der Ist-Zustand einer Technologie, die in wenigen Jahren jeden Lebensbereich prägen wird.

Der naheliegende Schluss wäre: Also Boykott. Warten, bis die Regulierung greift. Abstand halten. Das klingt nach Haltung. Es ist aber keine, denn die Technologie entwickelt sich weiter, unabhängig davon, ob wir dabei sind. Die Frage ist nicht mehr ob KI eingesetzt wird. Die Frage ist nur noch: von wem, mit welchen Werten, unter welchen Bedingungen.

Wer das Feld räumt, überlässt es denen, die keine dieser Fragen stellen. Das ist die unbequemste Erkenntnis dieses Artikels. Und sie ist der Grund, warum Startnext mitmacht, bewusst, kritisch und mit dem Anspruch, diese Fragen laut zu stellen, auch wenn es unbequem wird.

Und wenn du gerade an deinem Projekt arbeitest und dich fragst, ob du KI nutzen solltest: Ja. Tu es. Nutze sie, um deine Idee klarer zu formulieren, deine Kommunikation zu schärfen, deinen Plan zu hinterfragen. Deine Idee verdient es, gehört zu werden und wenn ein Werkzeug dir hilft, sie besser in die Welt zu tragen, dann spricht nichts dagegen, es zu benutzen. Im Gegenteil: Gute Ideen brauchen jede Unterstützung, die sie bekommen können.

Wie wir das bei Startnext konkret umsetzen, welche Leitplanken wir uns gesetzt haben und warum auch die Wahl des Anbieters eine Haltungsfrage ist, beschreibe ich in Teil 2.

Denis

(Dieser Blog-Post ist auf Basis meiner Notion-Notizen, meiner Lektüre und mit Claude Sonnet 4.6 entstanden)

Quellen & weiterführende Lektüre

Startnext wird von Menschen gemacht. Nicht jede:r im Team wird alle hier geäußerten Einschätzungen teilen. Das ist gut so.

Mehr zu lesen

Teilen
Wir nutzen KI. Obwohl…
www.startnext.com
Facebook
X
WhatsApp
LinkedIn
Xing
Link kopieren