Transparenz, aber keiner blickt durch

Grok entscheidet, was Nutzende auf X zu sehen bekommen

Joris Leander Kanowski – Berlin –

Was ist passiert?

Am 20. Januar hat X (X.com, ehemals Twitter) den neuen Empfehlungsalgorithmus für den „For You“ - Newsfeed auf Github veröffentlicht. So soll nachvollziehbar gemacht werden, wie entschieden wird, welche Inhalte Nutzerinnen und Nutzer sehen.

Elon Musk hat außerdem angekündigt, diesen Vorgang alle vier Wochen zu wiederholen. Developer Notes sollen jeweils erklären, welche Veränderungen die Softwareentwickler bei X im letzten Monat vorgenommen haben.

Hier haben wir es mit einer klassischen Transparenzsimulation zu tun: X hat weder die spezifischen Gewichtungsfaktoren noch die Trainingsdaten oder die internen Parameter des Modells offengelegt. Damit ist für Außenstehende weiterhin nicht genau prüfbar, warum bestimmte Inhalte bevorzugt werden.

Eine erste Analyse von Heise Online kommt zu dem Ergebnis: Obwohl X damit mehr offenlegt als andere soziale Netzwerke, ist eine echte Überprüfung politischer oder systematischer Verzerrungen kaum möglich.

Warum ist der Empfehlungs-Feed so wichtig?

Wie der jeweilige Empfehlungs-Feed (auch „For You“ oder „Discovery“ -Feed, bzw. die „Timeline“) funktioniert, ist eine der entscheidendsten Eigenschaften von Social Media Plattformen. Nutzende sollen genau das angezeigt bekommen, was sie am meisten interessiert und ihre Verweildauer auf der Plattform oder in der App maximiert.

In der Regel sind diese Algorithmen geheim. Die X-Alternative Bluesky mit ihrem offenen Protokoll ist hiervon eine prominente Ausnahme. Mastodon wiederum verzichtet aktuell ganz auf Empfehlungs-Algorithmen.

Vom Empfehlungs-Algorithmus hängt letztlich ab, wie süchtig Social Media Plattformen machen, welche Formen von Content auf ihnen begünstigt werden und die meiste Sichtbarkeit bekommen sowie insbesondere, ob die Plattform politisch neutral ist, oder einen Bias aufweist. 

Was ist mit Grok anders als zuvor?

Das neue System namens „Phoenix“ ersetzt den alten „Heavy Ranker“ von 2023. Während früher hunderte Merkmale (wie Bildanhänge oder Followerzahlen) von Ingenieuren manuell gewichtet wurden, basiert „Phoenix“ nun auf der Transformer-Architektur von Grok (der KI  von xAI).

Die KI analysiert die Interaktionshistorie der Nutzer (Likes, Klicks, Verweildauer, aber auch Blocks). Daraus berechnet sie die Wahrscheinlichkeit für positive oder negative Reaktionen und erstellt einen Score, der die Sichtbarkeit eines Posts bestimmt.

Welche Probleme verursachen LLM-kuratierte Feeds?

Zunehmend werden LLMs (Large Language Models) nun genutzt, um Inhalte zu klassifizieren und die maschinellen Empfehlungen zu verbessern. X geht einen Schritt weiter und hat Grok seit 2025 schrittweise tief in die Empfehlungs-Architektur integriert.

Digitale Grundrechte brauchen eine starke Stimme – deine Unterstützung macht sie hörbar.

Als gemeinnützige Organisation finanzieren wir uns durch Spenden. Hilf uns, Machtmissbrauch einzudämmen und digitale Souveränität zu stärken.

Jetzt spenden!

Um die gesellschaftliche Wirkung von Empfehlungsalgorithmen abzuschätzen, aber auch um als Konsument, Kreator oder Werbetreibender eine Plattform zu nutzen, ist es wiederum sehr wünschenswert, dass die Funktionsweise des Empfehlungsalgorithmus – mindestens aber die Prinzipien und Mechanismen, denen er folgt, zu verstehen.

Empfehlungsalgorithmen, die auf einem LLM basieren, sind grundsätzlich schwieriger nachzuvollziehen, denn LLMs sind wegen ihrer Größe und nicht-deterministischen Funktionsweise extrem komplex. In vieler Hinsicht sind sie eine „BlackBox“, das heißt nicht ohne weiteres verständlich. So vergrößern LLMs ein bestehendes Transparenzproblem weiter.

Die „Transparenz“-Show hat bei X Tradition

Schon im März 2023 veröffentlichte X Teile des Quellcodes für den X Empfehlungsalgorithmus auf GitHub. Musk wollte damit beweisen, dass die Plattform nicht politisch voreingenommen sei. Experten kritisierten, dass der Vorgang kein echtes Open Sourcing war. Eine echte Nachvollziehbarkeit war wegen fehlender Informationen nicht gegeben.

Im März 2024 veröffentlichte Musks KI-Unternehmen xAI die „Gewichte“ (Weights) des Basismodells von Grok-1 unter der Apache-2.0-Lizenz. In der KI-Community findet eine intensive Debatte dazu statt, ob ein Modell ohne seine Entstehungsgeschichte wirklich als Open Source bezeichnet werden kann. Grok-1 ist mit 314 Milliarden Parametern zudem extrem groß und damit auch für Experten technisch kaum nachzuvollziehen. Auch hier wurden die geweckten Erwartungen an Transparenz und Open Source nicht erfüllt.

Viele Beobachter sahen diese Veröffentlichungen deshalb primär als Teil der PR-Strategie im Rahmen von Musks Rechtsstreit mit OpenAI, denen er vorwirft, ihr Gründungsziel der Offenheit zu verfehlen.

Was hat das mit dem Digital Services Act zu tun?

Der DSA der EU stellt hohe Hürden für soziale Netzwerke auf, um die „Black Box“ der Algorithmen zu öffnen. Da X als sehr große Online-Plattform (VLOP) eingestuft ist, gelten für das Unternehmen besonders strenge Regeln. Die EU-Kommission hat X bereits im Dezember 2025 zu einer Strafe von 120 Millionen Euro verurteilt – unter anderem wegen mangelnder Transparenz bei der Werbung und fehlendem Datenzugang für Forscher. Die Untersuchung, ob und wie Grok dazu beiträgt, illegale Inhalte zu verbreiten, läuft derzeit noch.

Der auf Grok basierende neue Empfehlungsalgorithmus stellt potenziell weitere neue Verstöße dar. Der Artikel 27 des DSA fordert: Plattformen müssen in ihren AGB in klarer, verständlicher Sprache erklären, warum Nutzern bestimmte Inhalte angezeigt werden. Dazu gehören die wichtigsten Kriterien für das Ranking und deren relative Gewichtung. Nutzer müssen die Möglichkeit haben, diese Parameter zu beeinflussen oder zu ändern.

Artikel 34 und 35 des DSA verpflichten Plattformen zudem zu Risikomanagement: Plattformen müssen jährlich prüfen, ob ihre Algorithmen systemische Risiken bergen (z. B. Verbreitung von Desinformation, Hassrede oder negative Auswirkungen auf die psychische Gesundheit) und Gegenmaßnahmen ergreifen.

Sollte die EU-Kommission feststellen, dass X systematisch gegen den Digital Services Act verstößt oder Risiken nicht angemessen mindert, drohen dem Unternehmen von Elon Musk Bußgelder von bis zu 6 % des weltweiten Jahresumsatzes.  

Das übergeordnete Problem: Musk verfolgt mit X und Grok eine politische Agenda

Ob ein besserer und neutralerer Empfehlungsalgorithmus mit Grok gewollt und möglich ist, darf stark bezweifelt werden. Grok ist immer wieder mit extremistischen Aussagen aufgefallen. Im Juli 2025 bezeichnete es sich selbst beispielsweise als „MechaHitler“.

Das eigentliche Problem ist aber nicht Grok, sondern die Person, der sowohl Grok als auch X gehören. Privatisierte Öffentlichkeiten bergen immer das Risiko, von ihren Besitzern für ihre politischen Zwecke gekapert zu werden.

Genau das tut Elon Musk, der offen eine rechtsextreme Agenda verfolgt. Am Ende entscheidet er, was Nutzerinnen und Nutzer auf seiner Plattform sehen sollen. Die Integration von Grok und die begleitende Transparenz-Show ändern daran wenig.

Digitale Grundrechte brauchen eine starke Stimme – deine Unterstützung macht sie hörbar.

Als gemeinnützige Organisation finanzieren wir uns durch Spenden. Hilf uns, Machtmissbrauch einzudämmen und digitale Souveränität zu stärken.

Jetzt spenden!