Die Horror-Puppe „Momo“ schien schon fast wieder in Vergessenheit geraten zu sein. In diesem Sommer hatte sie auf mysteriöse Weise User mit Nachrichten und Anrufen in Angst versetzt. Jetzt soll es noch schlimmer gekommen sein: Momo wird bezichtigt, für den Tod von mindestens zwei Teenagern in den USA verantwortlich zu sein.
Momo befällt „Grand Theft Auto 5“
Auslöser war wohl das „Momo Suizid-Game“, das sich erst über WhatsApp verbreitete, anschließend weitere Plattformen und Netzwerke beanspruchte und nach dem beliebten Spiel „Minecraft“ nun auch „Grand Theft Auto 5“ erreicht zu haben scheint.
Wie Fox News berichtet, zeigt sich Momo in Form eines Characters oder Mods in dem Spiel, von dem bislang mehr als 85 Millionen Kopien verkauft worden sind. Eingespeist wird ein solcher Mod durch Spieler oder „Modder“, die sich damit neue, personalisierte Inhalte schaffen. In Form von Momo erregen diese nun jedoch neue Besorgnis.
Das nächste „Blue Whale“?
Einige Eltern warnten dem Bericht zufolge öffentlich vor dem Momo Suizid Game, das ihre Kinder bedrohe, indem es sie zum Selbstmord herausfordere. Sogar Werbeanzeigen seien aufgetaucht, die Momo in YouTube-Videos bewerben würden.
Könnte „Momo“ das nächste „Blue Whale“ werden? Blue Whale ist ein ebenso mysteriöses wie grausames Social Media-Game, bei dem Spieler Befehle eines Administrators annehmen und ausführen – teilweise blind bis ihrem eigenen Tod. Ob es zu angeblich 130 Todesfällen von russischen Teenagern geführt hat, ist allerdings fraglich.
Groteske Visage als Avatar
Im Momo Suicide Game, das sich einem weiteren Bericht von Fox News bereits Anfang August über WhatsApp verbreitete, steuert die Puppe als schattenhafter Administrator die Spieler und sende ihnen unter anderem gewaltverherrlichende Bilder über den Messenger. Dann bedrohe es die Spieler, wenn diese nicht gewillt seien, die „Spielregeln“ zu befolgen.
Die Modder haben Momo für das Spiel etwas verändert. Nach wie vor wird die bereits bekannte, groteske Visage als Avatar genutzt (ursprünglich eine Skulptur, die in Tokio ausgestellt ist, mehr dazu in unserem Artikel über die Hintergründe des Momo-Phänomens). Im Spiel verfolgt sie die Spieler, während sie ein Smartphone hochhält, das das WhatsApp-Logo zeigt.
Totes Mädchen erstes Opfer von Momo?
„Es ist gruselig“, berichtet ein Vater auf WTOL, einem zu CBS gehörenden US-Lokalfernsehsender aus Ohio. Sein sieben Jahre alter Sohn habe Minecraft auf YouTube verfolgt, als eine Werbeanzeige für Momo aufpoppte. Die argentinische Polizei untersucht derweil, ob der Selbstmord eines zwölfjährigen Mädchens in einer Stadt nahe Buenos Aires auf Momo zurückzuführen ist. Wenn dem wirklich so sein sollte, wäre sie das erste Todesopfer der Horror-Puppe.
Ihr Mobiltelefon lag jedenfalls direkt neben ihr, als sie tot aufgefunden wurde. Außerdem habe sie über soziale Medien Kontakt mit einem älteren Teenager gehabt, der sie möglicherweise auf das Momo Game gebracht habe, so die örtlichen Behörden. Kurz vor ihrem Tod habe sie zudem ein Video mit ihrem Handy aufgenommen, vermutlich mit der Intention, „es als Teil einer Challenge des Momo Games auf Social Media hochzuladen.“ Das Smartphone werde derzeit von den Behörden gehackt, um das Video und die WhatsApp-Chats des Mädchens untersuchen zu können.
Microsoft hat die Nase voll von Momo
Ermittlungsbehörden in ganz Europa warnen derzeit vor dem Momo-Phänomen, auch die deutsche Polizei ist alarmiert. Fox News hat Anfragen an YouTube und den zu Microsoft gehörenden Minecraft-Entwickler Mojang gesendet. Zumindest Microsoft scheint es inzwischen gewaltig aufzustoßen, dass Momo im Zusammenhang mit dem grausamen Selbstmord-Spiel bei Minecraft in Erscheinung getreten ist.
Der Konzern erklärte gegenüber Fox News, gegen diese „geschmacklose“ Erweiterung vorgehen zu wollen. Befürchtet wird, dass vor allem sehr junge Nutzer des Spiels durch den Momo-Mod bei Minecraft erst auf das WhatsApp-Suizid-Spiel aufmerksam gemacht würden und dann darin einsteigen könnten.
Von Seiten WhatsApps hieß es Anfang des Monats bereits: „Es ist einfach jeden Telefonnummer zu blockieren und wir halten unsere Nutzer dazu an, problematische Nachrichten an uns zu melden, so dass wir dagegen vorgehen können.“