In den Weiten des Internets ist ein merkwürdiges Konzept aufgetaucht – die Dead Internet Theory. Diese Idee stellt die Grundlagen des Internets als Ganzes in Frage. Ist das Internet mit seinen unzähligen Websites, sozialen Plattformen und digitalen Interaktionen nichts weiter als eine aufwändige Illusion? Es ist leicht, sich an der Schnittstelle zwischen Innovation und Skepsis zu befinden und nicht nur die Fortschritte, sondern auch die Rätsel zu erkunden, die die digitale Landschaft mit sich bringt. Die Dead Internet Theory ist ein solches Rätsel, eine faszinierende Idee, die in Online-Foren und Diskussionen Anklang gefunden hat und Debatten über die Natur unserer vernetzten Existenz entfacht hat.
Die Theorie geht davon aus, dass das Internet keineswegs ein geschäftiger Bereich von Echtzeitinteraktionen und dynamischen Inhalten ist, sondern in Wirklichkeit eine statische, leblose Leere von Bots ist – ein riesiger digitaler Friedhof, auf dem jeder Klick, jeder Scroll und jeder Tastendruck nur ein Echo widerspiegelt ins Leere, ohne nennenswerte Auswirkungen. Es stellt die breitere Wahrnehmung des Internets als lebendiges, lebendiges Gebilde in Frage und legt stattdessen nahe, dass es sich um eine ausgefeilte Fassade handelt, die eine tiefe Leere verbirgt.
Diese Theorie geht über die Skepsis gegenüber der Authentizität von Online-Interaktionen hinaus; Es berührt die grundlegende Natur des Internets als Medium für menschliche Verbindungen, Informationsaustausch und kollektives Bewusstsein. Ist eine digitale Existenz eine gemeinsame Erfahrung, oder geht jeder seinen eigenen einsamen Weg durch ein digitales Ödland, isoliert in der Auseinandersetzung mit der Leere?
Die Theorie und ihre Ursprünge
Im Kern stellt die Dead Internet Theory die Natur von Online-Interaktionen in Frage und legt nahe, dass die im Web wahrgenommene Lebendigkeit möglicherweise nichts weiter als eine Fassade ist. Die Wurzeln der Dead Internet Theory lassen sich bis in die Macintosh Cafe-Foren zurückverfolgen, in einem Beitrag eines Benutzers namens „IlluminatiPirate“. Im Januar 2021 verfasste der Benutzer einen Forumsbeitrag in Manifestform, in dem er die Theorie so darlegte, wie er sie sah. IlluminatiPirate behauptete, die Theorie nach einiger Zeit auf 4chans paranormalem Forum /x/ und anderen paranormalen Foren zusammengesetzt zu haben.
Die Theorie beruht auf der Annahme, dass das Internet irgendwann in den letzten fünf Jahren ausgestorben ist und nun mit KI-generierten Inhalten gefüllt ist. Im Gegensatz zu anderen Verschwörungstheorien führt die von IlluminatiPirate postulierte „Dead Internet Theory“ auf die US-Regierung und Influencer zurück, die sie angeblich bezahlen, um die Illusion aufrechtzuerhalten. Zu den Beweisen gehören anekdotische Berichte über Änderungen im Internet. Die Theorie fand in Online-Communities fruchtbaren Boden, wo Einzelpersonen, die sich mit dem Paradox der Hyperkonnektivität auseinandersetzten, begannen, über den Inhalt ihres Online-Engagements nachzudenken.
Philosophisch gesehen lässt sich die Dead Internet Theory von der uralten Frage inspirieren, dass ein Baum in einen verlassenen Wald fällt: Wenn eine Handlung ohne Beobachter stattfindet, macht sie dann ein Geräusch? Im Kontext der digitalen Landschaft wirft die Theorie eine parallele Frage auf: Wenn Menschen sich mit Inhalten beschäftigen, Gedanken austauschen und online interagieren, ohne echte Gegenleistung oder Wirkung, hat ihre digitale Präsenz dann eine echte Bedeutung?
Fakt oder Fiktion?
Wie bei vielen Verschwörungstheorien müssen Sie nur Ihre Beobachtungsgabe einsetzen, um festzustellen, dass das Ganze nachweislich falsch ist. Allerdings klingt ein Forumsbeitrag von Anfang 2021 über die Eroberung des Internets durch generative KI heute nicht mehr so weit hergeholt wie damals. Das Internet ist heute ein Ort voller von ChatGPT generierter Textblöcke, von KI-erzählten Reddit-Threads, die Ihre Social-Media-Feeds verzieren, und von KI-generierten Bildern, die vorgeben, echt zu sein.
Bei der Dead Internet Theory geht es jedoch nicht unbedingt um Inhalte, von denen Sie wissen, dass sie von der KI generiert wurden. Das Problem wäre der Inhalt, von dem Sie nicht wissen, dass er KI-generiert ist. Nach dem ursprünglichen Forumsbeitrag wurde nicht viel Web-Traffic rund um die Idee generiert, bis ein Artikel in The Atlantic über die Dead Internet Theory mit einem enormen Anstieg des Web-Traffics rund um die Idee zusammenfiel.
Natürlich scheint das gestiegene Interesse an der Theorie die Theorie selbst zu widerlegen. Die alternative Möglichkeit besteht darin, dass die vermeintliche KI-Horde, aus der das Internet besteht, der Selbstverwirklichung gefährlich nahe kommt. Spaß beiseite, Sie kennen Leute, die das Internet nutzen. Ihre Freunde haben andere Freunde, die alle möglichen Websites besuchen, die Sie vielleicht noch nicht einmal nutzen oder von denen Sie noch nie gehört haben. Sicherlich gibt es keine Möglichkeit, dass eine Menge gefälschter Datenverkehr direkt an Ihnen vorbeigeht, ohne dass Sie es jemals bemerken.
Ein Körnchen Wahrheit
Darin liegt das Problem mit der Theorie. Wie bei jeder großen Verschwörungstheorie steckt auch in den ausgefalleneren Ideen ein Kern Wahrheit verborgen. Diese Wahrheit ist, dass die Vielzahl des Web-Verkehrs auf Bots zurückzuführen ist, die 52 % des gesamten Online-Verkehrs ausmachen. Die Mechanismen dieser Statistik sind jedoch komplizierter als eine Armee von KIs, die Ihnen weismachen wollen, dass das World Wide Web voller echter Menschen ist. Vielmehr kann diese Bot-Aktivität grob in eine Gruppe von „guten Bots“ und „schlechten Bots“ unterteilt werden, wobei letztere leider den Großteil dieser 52 % ausmachen.
Gute Bots umfassen Dinge wie Feed-Abrufer, Webcrawler und Überwachungs-Bots. Feed-Abrufer sind Bots, die dabei helfen, den Feed einer Person für einen bestimmten Dienst zu füllen. Ein Webcrawler ist ein Bot, der alle Arten von Websites durchsucht, um relevantere Suchergebnisse für Suchmaschinen zu erstellen. Überwachungs-Bots überwachen, wie der Name schon sagt, den Datenverkehr zu einer Website, um potenzielle Bedrohungen zu identifizieren. Alle Bots erfüllen lebenswichtige Funktionen im Web, und obwohl sie einen Großteil des Datenverkehrs im Web ausmachen, handeln sie nicht, um Menschen zu täuschen.
Allerdings versuchen „schlechte Bots“ auch nicht aktiv, menschliche Benutzer zu täuschen. Zu den Bad Bots zählen Bots, die bei DDoS-Angriffen verwendet werden , nicht autorisierte Data Scraper und Spambots. Wenn also keiner dieser Bots versucht, nach vorne menschlich zu wirken, wo liegt dann das Problem?
KI- und Sprachlernmodelle
Leider hat die Weiterentwicklung der KI dazu geführt, dass online immer mehr Inhalte verbreitet werden, die zu 100 % von KI produziert werden. Während einige dieser KI-Konten offensichtlicher sind als andere, wie zum Beispiel die prominenten Doppelgänger, die Metas KI-Chatbots sind , werden andere nicht gekennzeichnet, versuchen aber aktiv, als Nicht-KI auszugeben.
Sprachlernmodelle wie ChatGPT wurden genutzt, um eine Armee von Bots zu schaffen, die eine beliebige Anzahl von Aufgaben erledigen können. Der primäre Verwendungszweck war die Verbreitung von Informationen, oft in Form von Fehlinformationen. Bei diesen KI-gestützten Botnetzen bestand ein besonderes Interesse an der Verbreitung von Fehlinformationen über Kryptowährungen. Das Aufkommen ausgefeilter Sprachmodelle hat die Erstellung von Inhalten revolutioniert. KI-generierte Artikel, Social-Media-Beiträge und Kommentare integrieren sich nahtlos in digitale Räume. Allerdings wirft die Natur dieser Modelle Fragen zur Authentizität und Vielfalt der Inhalte im Web auf.
Die fortwährende Natur von Sprachlernmodellen stellt eine Kuriosität aus dem ursprünglichen Beitrag „Dead Internet Theory“ in Frage. In diesem Beitrag stellte IlluminatiPirate die Menge an Nachrichten in Frage, die sich scheinbar unendlich fortbesteht, etwa Nachrichten über „beispiellose“ oder „ungewöhnliche“ Dinge, die mit dem Mond oder einem Asteroiden zu tun haben. Allerdings ist an einem potenziellen Netzwerk KI-gestützter Spam-Bots, die Informationen über den Mond verbreiten, nichts grundsätzlich Bösartiges dran. Dies dürfte die am wenigsten besorgniserregende Möglichkeit von KI sein, da es auf verschiedenen Social-Media-Plattformen Beispiele dafür gibt, dass Bots für weniger unschuldige Dinge als Mondfakten eingesetzt werden.
KI-generierte Inhalte und Reddit sind Hand in Hand geworden. Obwohl nicht auf Reddit selbst, sind Inhalte von Reddit auf TikTok und ähnlichen Plattformen wie Instagram Reels und YouTube Shorts zu einem Hit geworden. Die fraglichen Videos stammen im Allgemeinen aus AskReddit-Threads oder Beiträgen von Subreddits wie Nuclear Revenge, Off My Chest und Relationship Advice. Der Inhalt des Videos ist eine KI-Stimme, die den Text eines Threads vorliest, normalerweise überlagert mit dem Gameplay von Minecraft oder Subway Surfers. Allerdings ist die Website selbst nicht frei von den negativen Folgen der KI. Während KI-generierte Inhalte in Form von generierten Artikeln und Kommentaren zu Beiträgen auf Reddit gelangen können, ist dies nicht das größte Problem, mit dem die Plattform konfrontiert war.
Sprachlernmodelle benötigen Datensätze, aus denen sie lernen können. Einer der größten verfügbaren Datensätze darüber, wie Menschen im Internet miteinander schreiben, ist Reddit, eine Website, die fast ausschließlich auf kurzen und langen Textbeiträgen und Antworten basiert. Das Problem entstand, als Reddit beschloss, mit diesem Phänomen etwas Geld zu verdienen.
Bevor Reddit mit der Monetarisierung seiner API begann , war die Nutzung weitgehend kostenlos. Dies ermöglichte die Existenz von Drittanbieter-Apps wie Apollo und RedditIsFun für mobile Reddit-Benutzer in den Tagen, bevor es eine offizielle App gab, und viele Benutzer nutzten sie auch nach der Veröffentlichung weiterhin anstelle der offiziellen App. Obwohl KI-generierte Inhalte menschliche Inhalte nicht ersetzt haben, sind viele Plattformen, die für den Zugriff auf Reddit existierten, aufgrund von KI-Daten-Scraping inzwischen tot.
Die früher als Twitter bekannte Website
Eine der Websites, die am stärksten von generativer KI betroffen ist, ist X, die Website, die früher als Twitter bekannt war. Das zuvor erwähnte Botnetz, das Fehlinformationen über Kryptowährungen verbreitete, wurde auf X gefunden, wo über 1.000 KI-fähige Bot-Konten zur Verbreitung von Fehlinformationen im Zusammenhang mit Kryptowährungen verwendet wurden.
Dieses Netz aus Bots interagierte über Reposts und Antworten miteinander, um die Interaktionszahlen zu steigern, und stahl gleichzeitig Selfies von echten Menschen, um als authentischere Konten zu erscheinen. So unheimlich das Ganze auch klingen mag, das Botnetz war nicht gerade dicht. Die Studie, die alle Konten im Botnetz aufdeckte, brachte sie mit versehentlichen Posts in Verbindung, die auf fast allen beteiligten Konten gepostet wurden. Die fraglichen Beiträge enthielten normalerweise Variationen der Formulierung „als KI-Sprachmodell“. Insbesondere dieser Satz wird Ihnen wahrscheinlich ausgespuckt, wenn Sie ChatGPT bitten, etwas zu tun, das gegen die Richtlinien von OpenAI verstößt.
Die Sichtweise von Dead Internet Theory gegenüber X konzentriert sich jedoch tendenziell auf die Natur der viralen Beiträge auf der Website. Der Atlantic-Beitrag, der dazu beitrug, die Idee der toten Internet-Theorie allgemein bekannt zu machen, erwähnt die sehr häufige Verwendung des Ausdrucks „Ich hasse Textnachrichten“ in X. Die Verbreitung dieses Inhalts, der sich nicht wirklich in bedeutungsvoller Weise von anderen Beiträgen unterschied, führte dazu, dass viele dazu kamen haben das Gefühl, mit Bots zu interagieren.
Elon Musks X-Kreuzzug
Spam-Konten waren auf X schon immer ein Problem, ob automatisiert oder nicht. Das Thema Spam und Bots auf X stand im Mittelpunkt des Kaufangebots von Elon Musk für das Unternehmen. Und obwohl Musk Eigentümer der Website wurde, war sein Kampf gegen Bots und Spam kein voller Erfolg. Eines der berüchtigteren Beispiele für Bot-Konten auf X sind T-Shirt-Bots. Die fraglichen Bots werden im Allgemeinen durch die Verwendung bestimmter Schlüsselwörter als Reaktion auf ein Bild veranlasst, wie zum Beispiel den Satz „Ich wünschte, ich hätte das auf einem Hemd“, wo sie dann eine schnelle Shop-Seite erstellen, um genau dieses Bild auf einem T-Shirt zu kaufen -Hemd. Dies hat dazu geführt, dass viele Benutzer die Bots dazu veranlasst haben, unangemessene oder urheberrechtlich geschützte Bilder auf T-Shirts zu platzieren.
Obwohl Musks Angebot, die Website zu kaufen, aus der Idee entstand, gegen Bots und Spam vorzugehen, gibt es keine Beweise dafür, dass die Bot-Aktivität seit seiner Übernahme zurückgegangen ist. Eine aktuelle Analyse von einer Million Beiträgen ergab, dass die Bot-Aktivität auf der Website schlimmer ist als je zuvor. Das größere Problem, mit dem Musks Diese Möglichkeit, Spam-Konten mit einem Verifizierungssiegel zu versehen, macht es schwieriger, sie von echten Konten zu unterscheiden. Dies deckt sich perfekt mit der Vorstellung, dass die überwiegende Mehrheit der Online-Aktivitäten Bots sind.
YouTube und Fake Views
Ein letzter Teil der Dead Internet Theory hat mit Analytik zu tun. YouTube ist mit seinem algorithmusgesteuerten Empfehlungssystem und dem Versprechen einer demokratisierten Inhaltserstellung zu einer zentralen Arena für den digitalen Ausdruck geworden. Das Streben nach Sichtbarkeit und Erfolg auf dieser Plattform hat jedoch zu einem Schattenmarkt geführt, auf dem YouTuber und Unternehmen versuchen, die Wahrnehmung von Popularität durch gefälschte Ansichten zu manipulieren. Diese Praxis verzerrt nicht nur die Kennzahlen, die ein umfassenderes Verständnis von Online-Inhalten prägen, sondern wirft auch Fragen zur Authentizität der in sozialen Medien hergestellten Verbindungen auf.
Gefälschte Ansichten, die oft durch automatisierte Bots oder Klickfarmen ermöglicht werden, erzeugen eine Fassade der Popularität, die sowohl das Publikum als auch die Ersteller von Inhalten irreführen kann. Diese Illusion trägt zu einer Echokammer bei, da Inhalte mit überhöhten Ansichten möglicherweise eine unverhältnismäßige Sichtbarkeit erhalten und unterschiedliche Perspektiven und authentische Stimmen überschatten. Die Beweggründe für die Verfolgung gefälschter Ansichten sind vielfältig. Bei Content-Erstellern treiben der Reiz erhöhter Sichtbarkeit, potenzieller Monetarisierungsmöglichkeiten und die wahrgenommene Bestätigung des Erfolgs den Wunsch nach einer künstlichen Steigerung der Aufrufzahlen.
Auf der anderen Seite ist die Realität so, dass sie nur Geld wollen. Berichten zufolge hat ein Mann in einem Jahr über 200.000 US-Dollar verdient, indem er gefälschte Aufrufe auf YouTube verkaufte. Berichten zufolge hat eine andere Website, die YouTube-Aufrufe verkauft, in drei Jahren mit dem Verkauf von Aufrufen über 1 Million US-Dollar verdient.
Von den Bots, von den Bots, für die Bots
Die Dead Internet Theory geht davon aus, dass der Großteil des Internets aus gefälschten Bot-Konten besteht. Es gibt viele Bot-Konten, die den Großteil des Web-Traffics generieren und Inhalte auf Social-Media-Seiten generieren. Sie konsumieren diese Inhalte auch. Allerdings ist das Internet der Bots, durch die Bots und für die Bots nicht gerade eine dystopische Verschwörung. Eine pragmatischere Betrachtung zeigt, dass das Internet in seiner jetzigen Form keineswegs ein steriles Ödland ist, sondern ein dynamischer Raum, in dem echte Verbindungen, bedeutungsvoller Diskurs und echtes Engagement stattfinden.
Die Integration künstlicher Intelligenz und Sprachmodelle in die digitale Landschaft erhöht die Komplexität der Erzählung. Während es wichtig ist, die ethischen Auswirkungen dieser technologischen Fortschritte zu hinterfragen, ist es ebenso wichtig, die positiven Beiträge anzuerkennen, die sie mit sich bringen, indem sie die Zugänglichkeit verbessern und Innovationen fördern gas monkey.
Das Internet mit seiner Weite, Vielfalt und seinem Potenzial für echte menschliche Verbindungen bleibt ein Beweis für die Widerstandsfähigkeit digitaler Räume. Es gibt zwar Herausforderungen, diese sind jedoch nicht unüberwindbar, und die Weiterentwicklung der Technologie bietet weiterhin Möglichkeiten für die Schaffung eines authentischeren und bedeutungsvolleren digitalen Erlebnisses. Auch wenn das Internet irgendwann zu 99 % KI-generiert sein könnte, bedeutet das nicht unbedingt, dass es weniger Menschen gibt. Es bedeutet einfach mehr Bots.