US-Polit-Shootingstar Ocasio-Cortez: Facebook, Google & Co sind die größte Bedrohung des Journalismus

Via Twitter machte Ocasio-Cortez die Internet- und Tech-Riesen für den Niedergang des Journalismus verantwortlich, der in der vergangenen Woche in den Massenentlassungen bei BuzzFeed und der Huffington Post seinen Ausdruck fand.

“Ohne eine Reihe von unabhängigen Verlagen und den nötigen Erlösen wird unsere Demokratie weiter zerbröckeln”, twitterte die erst 29-Jährige, die bei den Kongress- und Senatswahlen im vergangenen Herbst als jüngste Frau ins US-Repräsentantenhaus gewählt wurde.

“Tatsache ist, dass der gegenwärtige Monopol-Trend gesellschaftlich und wirtschaftlich unhaltbar ist”, twitterte Ocasio-Cortez weiter. “Wir können das Klischee ‘Journalismus stirbt’ einfach nicht akzeptieren. Journalismus wird nur sterben, wenn wir es bevorzugen, nicht für ihn zu kämpfen – und wenn Journalismus stirbt, stirbt auch unsere Demokratie”.

Ocasio-Cortez nahm explizit Facebook ins Fadenkreuz ihrer Kritik: “Die meisten Plattformen, haben null Anreiz, qualitativ wertvolle, wahre Informationen zu verbreiten. Tatsächlich hat Facebook dafür *bezahlt*, um Verschwörungstheorien zu verbreiten”, twitterte die US-Demokratin in Anspielung auf die von Facebook initiierte PR-Schmutzkampagne gegen Milliardär George Soros.

“Das zählt. Soros war der erste, dem letztes Jahr eine Briefbombe geschickt wurde”, rechnet Ocasio-Cortez mit dem drittwertvollsten US-Internetkonzern ab.

Die Kongressabgeordnete für die Bronx und Queens gilt als die Polit-Sensation der Stunde. Kein/e andere/r US-Politiker/in verbreitete sich so intensiv über die sozialen Medien, die Alexandria Ocasio-Cortez zur unablässigen Abrechnung mit US-Präsident Trump nutzt.

Qwant: Europas Suchmaschine sieht eine neue Chance gegen den Koloss Google

Europäische Unternehmen haben kaum eine Chance, in der Liga der Tech-Giganten mitzuspielen. Die französische Suchmaschine Qwant will jetzt Google Marktanteile abjagen – und dabei die Datenschutz-Skandale der Konkurrenz ausnutzen.

Dieser Tage stellen Apple, Google, Facebook, Amazon und Microsoft ihre Quartalszahlen vor. Zu einem Großteil werden sie aller Voraussicht nach erneut Rekorde im Umsatz, Gewinn und Marktanteilen ausweisen. Die US-Techriesen sind in ihren Märkten so dominant wie in den Vorjahren – trotz aller Versuche aus China und Europa, sie mittels Datenschutzvorgaben, Wettbewerbsverfahren und Milliardenstrafen auszubremsen.

Der Blick auf den europäischen Markt zeigt, dass mit der Ausnahme vom Softwarehersteller SAP auch im Jahr 2019 kein Unternehmen auch nur ansatzweise eine Chance hat, in der Liga der Giganten von der US-Westküste mitzuspielen. Doch das bedeutet nicht, dass man es nicht zumindest versuchen sollte, argumentiert Wolf Hisserich.

Der Ex-Telekom-Manager wurde Ende Januar zum Deutschlandchef des französischen Suchmaschinen-Unternehmens Qwant berufen – und hat die Aufgabe, Qwants Marktanteil in Deutschland zu steigern. Axel Springer („Welt“, „Bild“) ist an dem Unternehmen beteiligt.

Bislang liegt der in Deutschland unter fünf Prozent, Marktführer Google ist mit über 90 Prozent stärker denn je. Doch Hisserich glaubt an die Chance, den Marktanteil mittelfristig auszubauen – und setzt dabei auf das Thema Datenschutz.

„Qwant soll in Deutschland mindestens so erfolgreich werden wie in Frankreich, dazu gilt es aktuell, den Bekanntheitsgrad zu steigern.“ Damit das klappt, muss Qwant auch technologisch in echte Konkurrenz zu Google treten – und zumindest in den wichtigsten europäischen Sprachen gleichwertige Suchergebnisse liefern.

Eine Suchmaschine für das Internet der Dinge

Dafür hat das Unternehmen in den vergangenen Monaten erheblich investiert. War bis im vergangenen Jahr noch Microsofts Bing als Kooperationspartner für einen Teil der Ergebnisse verantwortlich, hat Qwant mittlerweile für Webseiten in Englisch, Deutsch, Französisch und Italienisch eigene Webindizes aufgebaut und setzt massiv auf selbstlernende Algorithmen, um aus den Suchanfragen der Nutzer bessere Antworten zu generieren.

Hisserich hofft, dass Qwant insbesondere von den Datenschutz-Skandalen der US-Riesen der vergangenen Monate profitieren kann: „Wenn die Nutzer begreifen, dass ihre privaten Daten schützenswert sind, dann sind sie vielleicht bereit, etwas Neues auszuprobieren. Mir ist klar, dass wir dabei ein Stück weit auch gegen Bequemlichkeit und eingefahrene Verhaltensmuster antreten.“

Doch ein Wechsel nur aus Angst vor den US-Firmen erscheint Hisserich wenig erstrebenswert. Er will, dass Qwant auch über Innovation punktet. Vor allem durch Partnerschaften mit anderen führenden europäischen Unternehmen könnten junge europäische Techfirmen eine Chance haben, die US-Riesen in Europa auszustechen.

Hisserich hofft insbesondere auf das Internet der Dinge, in dem deutsche Maschinenbauer bereits jetzt ihre Marktführer-Positionen in Nischen ausbauen. „Was noch fehlt, ist eine europäische Suchmaschine für Objekte im Internet der Dinge. Darüber könnte auch ein Datenaustausch zwischen den Maschinen organisiert werden – ganz ohne US-Beteiligung.“

Bei der Entwicklung des industriellen Internets der Dinge auf Basis von Algorithmen können die Europäer noch eigene Marktführer entwickeln, glaubt auch Florian Leibert, der deutsche Mit-Gründer des Daten-Start-ups Mesosphere: „Wir sind noch ganz früh dran – und alle Chancen stehen noch offen“, sagt Leibert.

„In der IoT-Entwicklung werden gerade erst die Geschäftsmodelle erkannt.“ Etwa indem Sensordaten, durch intelligenten Einsatz von selbstlernenden Algorithmen ausgewertet werden, könnten neue Services Umsatz generieren. Auch er setzt darauf, dass die europäischen Marktführer im Bereich Automobil- und Maschinenbau die Zusammenarbeit mit den US-Riesen scheuen, da sie ihre wertvollen Roh-Daten im Internet der Dinge lieber nicht teilen möchten. „Wer jetzt auf die Zusammenarbeit mit einem der großen US-Cloud-Anbieter setzt, legt sich auf Jahre hinaus fest – und vergibt damit eventuell Chancen, etwas eigenes zu entwickeln.“

Google für die Gesundheitsbranche

Mit Freunden aus Indien hat Gunjan Bhardwaj in Deutschland Innoplexus aufgebaut – eine ausgeklügelte Suchmaschine für die Pharmabranche, die Profiwissen aus dem Internet und Datenbanken aufspürt und aufbereitet.

unjan Bhardwaj (35) war auf dem besten Wege, das auskömmliche Leben eines aufstrebenden Unternehmensberaters zu führen. Arbeit und Gehalt bei Ernst & Young stimmten, das Betriebsklima war bestens, vor allem das Verhältnis zu dem für ihn zuständigen Senior-Partner. Dieser kam eines Tages allerdings mit einer schlechten Nachricht: Er sei an Krebs erkrankt, falle die nächsten Monate aus.

Die Diagnose war ein Schock, auch für Bhardwaj: Er wusste zwar, dass sein Kollege als Privatpatient in den Vorzug einer Chefarztbehandlung kam, aber er wusste nicht, ob die Klinik für die Therapie dieses speziellen Krankheitsbildes auch über die erforderliche Erfahrung und das notwendige Wissen verfügte.

Gunjan Bhardwaj tat das, was wohl viele in einer ähnlichen Situation tun: Er versuchte, alles Wichtige über die Erkrankung und ihre Therapie herauszufinden. Wo arbeiten die besten Ärzte? Welche wissenschaftlichen Studien lassen sich finden? Gibt es erfolgversprechende Alternativ-Therapien?

Google lieferte Bhardwaj massenhaft Treffer auf seine Anfragen. Doch die Informationen waren zum Teil veraltet, von zweifelhafter Qualität oder gar nicht relevant. Der Berater aktivierte zusätzlich sein berufliches Netzwerk, recherchierte bei der Deutschen Krebshilfe und in Universitätskliniken. Immer besser, präziser und wertvoller wurden die zusammengetragenen Informationen.

Doch eine Frage blieb unbeantwortet: Warum ist es in den Zeiten von Bits und Bytes nicht möglich, auf Knopfdruck aus dem Internet und den Datenbanken der ganzen Welt den neuesten Stand des Wissens zu bestimmten Krankheiten und ihren Behandlungen abzurufen? Und wie lässt sich das ändern?

Aus dieser Herausforderung ist inzwischen ein ambitioniertes Jungunternehmen namens Innoplexus mit Sitz in Eschborn bei Frankfurt entstanden, das mit viel Mathematik und Computertechnik das Problem gelöst hat.

Gemeinsam mit einem Entwicklerteam in Indien hat Gunjan Bhardwaj eine hochspezialisierte Suchmaschine für die Gesundheitsbranche entwickelt, eine Art Super-Google, das Profiwissen auf der ganzen Welt aufspürt.

Innoplexus macht es möglich, aus gewaltigen Datenmengen die wichtigen und für vorher definierte Anwendungen relevanten Informationen zu gewinnen – und zwar ruck, zuck und nicht in mühsamer, monatelanger manueller Auswertung durch teure Fachleute.

Das ausgeklügelte Suchsystem liefert nicht nur Patienten und Medizinern wertvolle Informationen. Für Pharma- und Biotechnik-Unternehmen wirkt es wie ein Beschleuniger für Forschung und Entwicklung: Sie kommen sehr viel schneller und kostengünstiger als bisher an den neuesten Stand des Wissens.

Dank des DAAD in Deutschland

Und die Gesundheitsbranche ist für Innoplexus erst der Anfang. Bhardwaj arbeitet bereits an einer Abwandlung der Methode, die weitere Anwendungen ermöglicht, etwa für Finanzdienstleister.

Dass Gunjan Bhardwaj sein Unternehmen gegründet hat, und das auch noch in Deutschland, hat viel mit seiner Hartnäckigkeit zu tun. Aber auch mit seiner skeptischen Grundeinstellung, ob es wirklich ratsam sei, das zu machen, was schon viele andere machen.

Als er vor zehn Jahren sein Wirtschaftsstudium am Indian Institute of Technology (IIT) in Mumbai beendete, zog es viele seiner Kommilitonen in die USA. Die Anziehungskraft Kaliforniens bestand auch darin, dass die indische Kaderschmiede IIT nach drei amerikanischen Hochschulen die meisten sogenannten „Einhörner“ hervorgebracht hat, also Start-ups mit einem Wert von mindestens einer Milliarde Dollar (siehe Grafik auf Seite 59).

Indes, Bhardwaj verfolgte andere Reisepläne: Er interessierte sich für den Standort Deutschland. Als ihm dann auch noch der Deutsche Akademische Austauschdienst (DAAD) ein Stipendium anbot, war seine Entscheidung gefallen. Seine neue Heimat fand er in Baden-Württemberg, zunächst an der Hochschule Pforzheim, später in Stuttgart als Jungberater bei Ernst & Young.

Gemeinhin gilt das Ländle ja nicht unbedingt als einfaches Terrain für Zugereiste. Regionale Besonderheiten wie die Kehrwoche haben sich oft genug als Integrationshürden erwiesen. Ganz anders bei Gunjan Bhardwaj. Er entwickelte sich dort zu einem „indischen Schwaben“, wie er selbst sagt. Und das ist nicht übertrieben, die Stuttgarter Landesregierung ernannte den Mann zum „honorary representative of the state of Baden-Württemberg to India“, einer Art schwäbischer Ehrenrepräsentant für Indien.

Auch mit der schwäbischen Tugend des Schaffens freundete Bhardwaj sich bestens an. Bei Ernst & Young arbeitete er zunächst in der deutschen Abteilung für Strategie und Innovation, stieg aber rasch zum Leiter des globalen Business Performance Think-Tanks auf. Dann wurden die Wettbewerber von der Boston Consulting Group (BCG) auf seine Talente aufmerksam und warben ihn ab.

Seine Idee vom Aufbau eines verlässlichen Suchsystems für das weltweite Wissen im Gesundheitswesen nahm Bhardwaj mit zu BCG. Er arbeitete dort in New York im Team von Martin Reeves, einem ausgewiesenen Kenner des Gesundheitssystems. Reeves ermunterte Bhardwaj, das Projekt voranzutreiben.

Zum immer wichtigeren Partner wurde dabei sein Mumbaier Studienfreund Gaurav Tripathi (35), ein Informatiker, Mathematiker und Computer-Freak – genau der Richtige für die Umsetzung des Vorhabens. Das Duo traf sich verschiedentlich in Mumbai oder Stuttgart, schrieb E-Mails, tauschte sich über Skype aus und diskutierte, entwickelte, verbesserte und verfeinerte die Such-Algorithmen. Schließlich stand der Masterplan.

Es gab nur einen Haken: Um den neuesten Stand des medizinischen und pharmazeutischen Wissens aus Datenbanken herausfiltern zu können, musste der Algorithmus die Sprache der Gesundheitswissenschaften verstehen.

Das erforderte zusätzliche Kapazitäten an Pharma- und Medizinexperten, Programmierern und Fachleuten für die Blockkette. Und dafür brauchten Tripathi und Bhardwaj jetzt vor allem Geld.

Die beiden fanden eine kreative Lösung: 2011 gründeten sie Innoplexus, angesiedelt in Eschborn bei Frankfurt, mit einer Niederlassung im indischen Pune. Dann starteten sie ein Pilotprojekt und verkauften die Ergebnisse vorab an ein Unternehmen aus der Pharmaindustrie, gegen Vorkasse.

500 Mannjahre in Wissensaufbau investiert

Nach diesem Muster trieben der Inder aus Mumbai und der indische Schwabe aus Stuttgart Innoplexus voran: Sie verkauften weiter Projekte und investierten die Erlöse in die Entwicklung und Umsetzung ihres Suchsystems.

Dafür mussten sie erst einmal einige Voraussetzungen schaffen. Dass gängige Suchsysteme sich schwertun, medizinische Inhalte aus dem Internet oder geschlossenen Datenbanken herauszufiltern, liegt auch an der Sprache der Wissenschaftler. Wer bei Google zum Beispiel das Kürzel APR eingibt, landet in erster Linie Treffer aus den Bereichen Auto-Tuning und Kernenergie.

In der Pharma-Forschung bezeichnet APR allerdings ein Protein. Um dieses mit klassischen Suchmaschinen aufzuspüren, muss man lange suchen oder Suchbegriffe einschränken, was seltener zu neuen Entdeckungen führt.

Bhardwaj und Tripathi stellten deshalb ein Team zusammen, das die Fachsprache der Profis erfasste und computergerecht aufbereitete. Eine gewaltige Arbeit, schließlich kennt der Jargon der Biowissenschaften rund 26 Millionen Begriffskonzepte und semantische Assoziationen. Und selbst dieser große Aufwand bildete erst die Grundlage.

Zusätzlich musste Innoplexus seine Rechner mit Inferenz- und Integritätsregeln programmieren, also mit Regeln zu Schlussfolgerungen und zur Gewährleistung ihrer Gültigkeit, und ein Netzwerk von Informationen mit logischen Relationen knüpfen, um die entsprechenden Texte, Dokumente, aber auch Filme, Bilder und Präsentationen aus der Datenwelt herausfischen zu können.

Zu guter Letzt mussten die Unternehmer noch die sogenannte Crawling-Kompetenz entwickeln: die Fähigkeit, alle verfügbaren Datenlager in möglichst kurzer Zeit nach relevanten Ergebnissen durchsuchen zu können.

Als Ergebnis entstand „Iplexus“, eines der Kernangebote von Innoplexus: Das Produkt verbindet Trillionen von Datenpunkten und siebt aus dem gewaltigen Datenozean Informationen für die Pharmaindustrie.

Hierauf aufbauend, haben Bhardwaj und Tripathi Spezialanwendungen ersonnen, die sich auf einzelne Stufen der Entwicklung von Medikamenten beziehen, klinische Tests zum Beispiel, und die Markteinführung beschleunigen.

Für die beiden Gründer war die Produktentwicklung ein großer Kraftakt, der das Start-up in wenigen Jahren in eine internationale Denkfabrik verwandelt hat, mit einem dritten Standort in Hoboken, im US-Bundesstaat New Jersey, in S-Bahn-Nähe von New York. Inzwischen beschäftigt Innoplexus mehr als 250 Leute, darunter 35 Daten- und Computerexperten und mehr als 70 Software-Ingenieure. Viele von ihnen kommen von ersten Adressen der Forschungsszene, vom Max-Planck-Institut, der Johns-Hopkins-Universität und dem MIT in Boston.

500 Mannjahre hat Innoplexus für seinen Wissensaufbau und die Produktentwicklung aufgewendet – offenbar mit einigem Erfolg: 65 Patente hat das Unternehmen bis heute angemeldet, davon 50 im Bereich der Künstlichen Intelligenz und zwölf für die Blockkette.

Heute ist es möglich, pro Tag eine Milliarde Internetseiten gezielt nach den gesuchten Informationen zu durchforsten, darunter Mediziner-Kongresse und Patientenforen, Pharma-Studien und Patentzulassungen.

Bereits etliche Kunden in der Pharma-Branche

Der Innoplexus-Algorithmus filtert die Informationen heraus, einerlei, ob es sich um Texte, Bilder, Filme oder Tonaufnahmen handelt. Die in das Suchprogramm eingebaute Künstliche Intelligenz entscheidet dabei, ob es sich lohnt, eine Internetseite zu durchsuchen, oder ob sich der Computer lieber die nächste Seite vornimmt.

Zusätzlich zu den öffentlichen Informationen erschließt Innoplexus für seine Auftraggeber eine weitere Datenwelt: Kooperationen mit Forschungsinstituten und Kliniken in Asien, den USA und Europa machen es möglich, mithilfe von Blockchain-Technologie auch wissenschaftliche Arbeiten, klinische Studien und experimentelle Labordaten aufzustöbern, die bisher nur in geschlossenen Zirkeln kursierten.

Dabei funktioniert die Blockkette wie ein dezentrales Buchführungssystem, das exakt erfasst, wer das geistige Eigentum eines Wissenschaftlers nutzt; Ideenklau wird damit verhindert.

Für Pharmakonzerne bietet dieses Verfahren einen gewaltigen Vorteil: Um sich auf den aktuellen Stand von Spezialwissen zu bringen, konnten sie bisher nur teure Datenbanken anzapfen. Dafür bekamen sie zwar umfangreiche Rohdatensätze, die aber mussten von teuren Fachleuten zeitaufwendig gesichtet, bewertet und aufbereitet werden.

Gunjan Bhardwaj und seine Mannschaft erledigen dank der neuen Technik Suche, Analyse und Aufbereitung in einem einzigen integrierten Arbeitsgang. Vor allem aber sehr viel schneller. Zwischen Auftrag und Lieferung vergeht in der Regel nur eine Woche.

Der Zeitgewinn hat Innoplexus bereits etliche Kunden aus der Pharmaindustrie beschert. Es sollen aber noch deutlich mehr werden. Schließlich will Bhardwaj, dass aus Innoplexus nicht weniger als „ein europäischer Champion im Bereich der Künstlichen Intelligenz“ wird.

Für die Vermarktung ihrer Produkte haben sich die Jungunternehmer im vergangenen Jahr deshalb wahre Profis an Bord geholt: Jürgen Raths, der früher beim US-Pharmakonzern Eli Lilly einen Informationsdienstleister für Kardiologen und Intensivmediziner aufgebaut hat und nun den Titel eines Chief Medical Officer trägt, und Lawrence Ganti, der die Geschäfte auf dem wichtigen US-Markt ankurbeln soll, der allein knapp die Hälfte des Weltmarkts ausmacht. Ganti zählt in Amerika zu den Branchenstars, er hat bereits bei Merck Karriere gemacht, zuletzt als Präsident der Tochtergesellschaft in Lateinamerika.

Mit der Vermarktungsoffensive im Pharmamarkt will Gunjan Bhardwaj Innoplexus jetzt auf wirtschaftlichen Erfolg trimmen, schließlich gehört auch das zu den schwäbischen Tugenden. Er möchte beweisen, dass am Standort Deutschland nicht nur Traditionsindustrien gedeihen, sondern auch Anbieter von Zukunftstechniken.

„Parallel dazu“, sagt Bhardwaj, „wollen wir unsere Technik aber auch für andere Branchen nutzen.“ Ein vergleichbares Produkt für Banken und den Finanzsektor wird bereits entwickelt. Und ein Suchalgorithmus für wissenschaftliche Publikationen, eine Art Forscher- Google, ist längst in der Testphase.

Die Strategie der Konquistadoren

Facebook spendiert der TU München 6,5 Millionen Euro für Forschung zur Ethik in der Künstlichen Intelligenz. Jedem muss klar sein, was der Konzern damit bezweckt.

Die Konquistadoren hatten neben dem Kreuz drei Innovationen, die ihre Macht besiegelten: Schießpulver, Kompass und Rüstungen aus Eisen; einzig dieser technische Vorsprung ließ sie die ganze Welt erobern, von Längengrad zu Längengrad. Im Vertrag von Tordesillas wurde 1494 die Welt in zwei Teile zerschnitten. Eine Linie, 370 spanische Leguas (etwa 1770 Kilometer) westlich der Kapverdischen Inseln, teilte den noch unbekannten Globus auf. Noch bevor Magellans Flotte die Welt zum ersten Mal umsegelte, wurde der Fang verteilt: Was westlich der unter päpstlichem Segen gezogenen Linie entdeckt werden sollte, fiel den Spaniern zu, alle Länder und Völker östlich davon gingen an Portugal. Die Entdeckten wurden zur Beute. Verblendet in ihrem eigenen Glauben, verkannten sie die Gier nach Gold der göttlichen Neulinge, die in ihre Welt eindrangen.

Mit ähnlichen Mustern erleben wir zurzeit die Eroberung des digitalen Kontinents. Aus dem Kompass ist die Suchmaschine geworden, aus Schießpulver und Rüstungen eine Schar intelligenter Objekte, Sensoren und Apparate. Das neue Gold sind unsere persönlichen Daten. Verführt von Apps und praktischen Assistenten, lassen wir uns leichtfertig auf einen ungleichen Tausch ein: Daten gegen Bequemlichkeit so wie einst Gold gegen Glasperlen. Wir verkennen die Folgen, wenn wir den Datenriesen mit einem lächerlich einfachen Klick den Zugang in unser Leben gewähren. Und dieses Mal erleben wir Europäer, was es bedeutet, wenn Fremde ihre Fahnen in unsere Kultur rammen. Momentan erobern die Vereinigten Staaten und China den Rest der modernen Welt. Ihre unsichtbaren Karavellen durchqueren die digitalen Ozeane in Windeseile und kapern über Nacht komplette Kontinente.

Mit dem Begriff Überwachungskapitalismus liefert die emeritierte Harvard-Professorin Shoshana Zuboff in ihrem neuen Buch einen Verständnisschlüssel für das Drehbuch dieser Eroberung. Hinter dem Vorhang der Digitalisierung sind analoge Kräfte am Werk, die das gesellschaftliche und wirtschaftliche Zusammenspiel umkrempeln und damit sehr schnell reich und einflussreich geworden sind.

Wie clever sie dabei operieren, zeigt das aktuelle Geschenk von Facebook: Facebook unterstützt mit 6,5 Millionen Euro die Initiative der Technischen Universität München, „um die ethischen Implikationen der Künstlichen Intelligenz zu erforschen“. Man habe aus den Fehlern der Vergangenheit gelernt und nehme selbstverständlich keinen Einfluss auf die anstehende Forschung, versichert COO Sheryl Sandberg.

Die tatsächliche Brisanz dieses Schachzugs ist nicht offensichtlich: Zunächst blickt man auf das Geschenk des Unternehmens an die Universität. Solche Zuwendungen sind nicht unüblich und haben verschiedene Formen angenommen. Stiftungsprofessuren, zum Beispiel, verzeichnen eine steigende Tendenz und sind aus der deutschen Hochschullandschaft nicht mehr wegzudenken. Der Stifterverband listet in seiner aktuellen Übersicht mehr als 800 privat geförderte Lehrstühle an Hochschulen und Universitäten auf. Ein Beispiel: Der Turbinenhersteller MTU Aero Engines bringt sich an der Universität Stuttgart beim Thema Strukturmechanik der Flugzeugtriebwerke ein. Hier wird also Forschung an einer Hochschule gefördert, und selbstverständlich profitiert das jeweilige Unternehmen von den Ergebnissen. Es ist immer ein Geben und Nehmen. Doch zumindest die Gesetze der Thermodynamik oder die der Festigkeitslehre sind immun gegen jeden Geldgeber.

Anders sieht es bei einem Forschungsinstitut für KI und Ethik aus. Hier geht es um die bislang ungeschriebenen Ethik-Regeln unserer Zukunft: „Wir wollen Leitlinien liefern für die Identifikation und Beantwortung ethischer Fragen der Künstlichen Intelligenz für Gesellschaft, Industrie und Gesetzgeber“, zitiert die TU-München den Projektkoordinator Prof. Christoph Lütge. Diese ethischen Leitlinien sind von elementarer Bedeutung für uns alle, denn sie werden darüber entscheiden, ob unsere Wünsche und Hoffnungen noch unserem freien Willen entspringen oder ob wir Bürger zu Marionetten werden im undurchsichtigen Spiel eines privaten Überwachungskapitalismus. Facebook hat jedoch in diesem Fall explizit angekündigt, keinerlei direkten Einfluss auszuüben, weder bei der Benennung der Professoren noch bei der Wahl der Themen. Wo also bitte liegt das Problem?

Spätestens seit dem letzten Jahr wurde jedem klar, wie gefährlich Facebooks hemmungsloses Geschäft mit unseren privaten Daten ist. Noch immer ist der Skandal von Cambridge Analytica nicht aufgeklärt. In den Befragungen vor dem amerikanischen Kongress sprach der Firmengründer Mark Zuckerberg 2018 von einem „Fehler“. Es habe einen „Vertrauensbruch zwischen Facebook und den Menschen, die ihre Daten mit uns teilen“, gegeben, und das Unternehmen müsse dies reparieren. Selbst der empfindliche Vertrauensverlust und die finanziellen Einbußen des Konzerns haben aus dem Saulus keinen Paulus gemacht. Noch immer fehlt es Facebook an Transparenz und Offenlegung. Bei der Ankündigung des neuen Instituts in München klingt Joaquin Quiñonero Candela, Director of AI bei Facebook, jedenfalls so, als sei nichts gewesen: „Bei Facebook ist der verantwortungsvolle und umsichtige Umgang mit der KI für alles, was wir tun, von grundlegender Bedeutung. Die KI wirft jedoch komplexe Probleme auf, die Menschen und Gesellschaft betreffen und die die Industrie allein nicht beantworten kann.“

Fragen wir in diesem Zusammenhang doch einmal nach den Rollen: Wie positioniert sich die staatliche Hochschule? Dient sie den Bürgern und der Gesellschaft bei der Lösung eines zentralen Zukunftsproblems oder macht sie sich zum Handlanger der modernen Konquistadoren? Sollte nicht gerade sie mit Argusaugen aufpassen, dass ihre Unabhängigkeit nicht in Verdacht gerät, anderen Zielen als dem Allgemeinwohl zu dienen? Aber welche Rolle spielt Facebook in diesem Konstrukt?

Bei der Ethik in KI geht es um die Zukunft von uns allen, gerade als Gesellschaft. „Digitales Verbundensein ist heute“, wie Shoshana Zuboff formuliert, „ein Mittel zu anderer Leute geschäftlichen Zielen.“ Allzu gern lassen wir uns als User von den Organisatoren und ihren Beratern aus der digitalen Welt zu den großen Gewinnern des „Onlife“-Lebensgefühls erklären. In diesem schon 2012 von der Europäischen Union in einem Forschungsprojekt so bezeichneten Ambiente leben wir als einzelne Elemente in Datenströmen des digitalen Ozeans, außerhalb unserer Wahrnehmung und Vorstellung.

Auch die Indios konnten sich weder vorstellen, dass man mit Gold auf der anderen Seite der Welt reich wurde, noch erkannten sie, dass die importierte Kultur der Konquistadoren ihre eigene Zivilisation zerstören würde. Genau hier schließt sich der Kreis der Geschichte. Auch wir werden Zeugen eines unerhörten kulturellen Auflösungsprozesses. Die Basis des Gemeinsamen löst sich auf. Es scheint, als ändere unsere Zivilisation ihren Aggregatzustand. Der verbindende Konsens verdampft, und selbst Unumstößliches wird in der neuen Kultur zum Interpretationsobjekt. Naturwissenschaftliche Fakten und Argumente werden zur Manövriermasse im Spiel der Interessen. Während viele von uns die Ausbreitung „alternativer Fakten“ beklagen, bereiten wir womöglich gerade den kulturellen Nährboden vor, aus dem bald „alternative Ethiken“ entspringen.

Hierin besteht der Schachzug von Facebook: War Ethik bislang die Basis unserer gemeinsamen Kultur und unserer Kultur der Gemeinsamkeit, so wird sie nun aufgesplittet zu einem austauschbaren Asset des Wettbewerbs. Durch das Geschenk hat Facebook nämlich unbemerkt den Wettbewerb um die Ethik als Produkt erweitert. In dem geschaffenen Schaukasten wird sich peu à peu und von ganz allein zeigen, dass auch ethische Angelegenheiten nur eine Frage des Geschmacks sind. Was der eine likt, wird vom anderen missbilligt.

Zu den Goldgruben für personalisierte Moral tragen nicht nur die Giganten aus der Welt des Internets mit ihren hausgemachten Regeln bei, sondern auch Staaten und Fachgesellschaften. Das Angebot ethischer Richtlinien für alles und jeden steigt mit jedem Tag. Auch die Europäische Union macht beim Wettrennen um die besten und schönsten Bedingungen und ethischen Richtlinien für vertrauenswürdige Künstliche Intelligenz mit. Keiner will zu spät kommen. Alle liefern emsig Bausteine für die personalisierte Moral der User. Und je mehr ethische Richtlinien unabhängig von staatlicher Ordnungspolitik und Rechtsverbindlichkeit entwickelt werden, umso einfacher haben es Facebook und Co. Sie können ganz unschuldig auf die von ihnen mit angeheizte ethische Meinungsvielfalt verweisen und sich als die großen Verfechter der individuellen Freiheit hervortun. So gelingt es Facebook einmal mehr, die Rahmenbedingungen zu bestimmen.

Nach dem Coup in München – und frei nach Shoshana Zuboff – kann Facebook sich zurücklehnen und seinem Betriebsmodell der Beobachtung und dem geschäftlichen Nutzen von Verhalten nachgehen. Wer diese Spielregel akzeptiert, begibt sich in die Rolle des Beobachteten und darf unter seinem Namen und dem wachsamen Auge der Konkurrenz so viele Richtlinien und Meinungen entwickeln und äußern, wie es ihm behagt. Wer vermutete, dass hinter Facebooks Geschenk an die TU-München ein unfairer Zug stecke, der denkt womöglich zu kurz: Hier geht es nicht mehr um einzelne Züge, hier werden gerade die Regeln des Spiels geändert.

 

Erneut riesige Daten-Leaks – Sind Ihre Passwörter dabei?

Das Potsdamer Hasso-Plattner-Institut (HPI) hat eine weitere gigantische Sammlung von Zugangsdaten im Netz entdeckt. Dabei handelt es sich offenbar um weitere Teile einer schon vergangene Woche öffentlich gemachten Zusammenstellung der privaten Daten, die unter dem Namen „Collection #1“ veröffentlicht wurde.

Schon kurz nach den Berichten über das Datenleck vergangene Woche hatten IT-Sicherheitsforscher – unter anderem der US-Experte Brian Krebs – angemerkt, dass es sich bei Collection #1 wohl nur um einen Teil einer größeren Sammlung handelt – darauf wies schon der Name hin. IT-Sicherheitsexperten des HPI, die routinemäßig das Netz nach solchen Leaks durchsuchen, haben jetzt auch die anderen Teile der Sammlung mit den Namen „Collection #2 – #5“ in einem öffentlich zugänglichen Teil des Netzes gefunden. Zusammen mit den bereits bekannten Daten von Collection #1 kommt das HPI auf mehr als 2,2 Milliarden Kombinationen aus E-Mail-Adressen und Passwörtern.

IT-Experten hatten bereits nach dem Auftauchen von Collection #1 davon gesprochen, dass es sich bei der Sammlung um eine Zusammenfassung älterer Leaks handelt. 90 Prozent der Zugangsdaten sollen demnach schon in anderen Datenlecks aufgetaucht waren. Das Hasso-Plattner-Institut, das seit Jahren Lecks in eine Datenbank einpflegt, kommt zu einer anderen Einschätzung. Demnach seien immerhin 750 Millionen Datensätze neu, also etwa ein Drittel.

Über Umwege kommen Hacker auch an Kontodaten

Durch die Leaks stehen Hunderte Millionen Zugangsdaten Hackern aus aller Welt zur Verfügung, um Nutzer auszuspähen oder zu versuchen, an Shopping- und Bankdaten zu kommen. Das geschieht im Falle derart großer Leaks häufig über so genanntes „credential stuffing“, übersetzt etwa „Vollstopfen mit Anmeldedaten“. Dabei feuern Hacker sehr lange Listen mit E-Mail-Passwort-Kombinationen automatisiert auf das Zugangssystem eines Dienstes ab, zum Beispiel auf Spotify oder E-Mail-Anbieter.

Die Software probiert selbständig, sich mit Hunderttausenden Zugangsdaten nacheinander einzuloggen. Bei dieser Masse ist die Chance nicht allzu klein, mit einigen der Kombinationen Treffer zu landen und sich Zugang zu Nutzerkonten zu verschaffen. Einer Analyse der IT-Sicherheitsfirma Shape Security vom Sommer 2018 zufolge kommen 80 Prozent der Log-in-Versuche auf Shoppingseiten von Unbefugten. Fast genauso hoch sind die Zahlen für die Webseiten von Fluggesellschaften.

Prüfen Sie, ob Sie betroffen sind

Das Hasso-Plattner-Institut betreibt eine Webseite, auf der Bürger prüfen können, ob ihre Daten in den Leaks enthalten sind. Auf der Seite müssen sie dazu einfach die zu prüfende Email-Adresse in das Suchfeld eintragen. Die Webseite gleicht diese Adresse mit den in den Leaks enthaltenen Daten ab und schickt dann eine Analyse an die angegebene E-Mail-Adresse.

Die Analyse zeigt, in welchem Leak die Zugangsdaten auftauchen, und welche weiteren Daten vorhanden sind. Welches Passwort betroffen ist, geht aus der Analysemail aus Sicherheitsgründen aber nicht hervor, damit Unbefugte es nicht sehen können.

Sollten die eigenen Daten von den neuen Leaks – oder älteren – betroffen sein, dann sollten Nutzer schnellstmöglich ihre Passwörter ändern. Sinvoll ist außerdem, sich bei wichtigen Plattformen, bei denen intime Daten oder Bankinformationen lagern, grundsätzlich mit Zwei-Faktor-Authentisierung anzumelden. Dabei wird mit jedem Anmeldeversuch – mit einem Zweitgerät wie einem Mobiltelefon – eine PIN generiert, die Sie zusätzlich zu ihrem Passwort eingeben müssen.

Journalismus: Bares für Wahres

Für die in die Kritik geratene WDR-Dokureihe Menschen hautnah wurde auf Komparse.de nach Protagonisten recherchiert, das Gesuch ist noch online. Der WDR hat Versäumnisse in drei Folgen der Reihe eingeräumt, die alle von derselben Autorin gedreht worden sind. In der jüngsten Episode zum Thema Vernunftehen wurde die Beziehungsgeschichte eines Protagonistenpaars, Tanja und Sascha Mahlberg, „in unzulässiger Weise zugespitzt“, wie der WDR vergangene Woche befunden hat. Die Folge ist nicht mehr in der Mediathek. Der Fall wirft grundsätzliche Fragen auf und sorgt beim öffentlich-rechtlichen Fernsehen nun offenbar für Diskussionen. Denn wenn für dokumentarische Inhalte Protagonisten gecastet werden – verschwimmen dann nicht die Grenzen zwischen Realität und Scripted Reality, jener Wirklichkeit, die den Köpfen von Autoren entspringt?

Das Gesuch für die WDR-Doku ist kein Einzelfall. Auf Komparse.de werden nicht nur Darsteller für fiktive Inhalte vermittelt, sondern regelmäßig Protagonisten für journalistische Formate, für Magazinbeiträge, Reportagen und Dokumentationen. In einer Stellungnahme weist Komparse.de auf der Startseite „aus aktuellem Anlass“ darauf hin, dass dort auch „reale Menschen in ihren realen Lebenssituationen“, „echte Schicksale, echte Biografien“ zu finden seien. Nur: In der Regel gegen Bezahlung.

Für einen Magazinbeitrag auf RTL sucht ein Moderator Frauen und Männer, die ihr Konto überzogen haben, „Gage nach Absprache“, für Mütter, „die manchmal im ganz normalen Alltagswahnsinn die Geduld verlieren“, zahlt der Sender 200 Euro pro Familie. Für eine MDR-Reportage wird ein Mieter mit hoher Radonbelastung gesucht, 100 Euro für einen halben Drehtag, für den WDR Protagonisten mit Schilddrüsenüberfunktion und ein „Büromensch mit Schulterschmerz, der in Physiotherapie ist“, Aufwandsentschädigung je „nach Absprache“. Auch Gesuche für Reportagen von NDR und ZDF, etwa die Dokureihe 37 Grad – „gute Gage VB“ -, finden sich im Archiv. Protagonist gegen Cash – ist das mit journalistischen Standards vereinbar?

Der WDR zieht Konsequenzen, auch andere Sender überprüfen ihre Praxis

„Aus rechtlicher Sicht ist die Bezahlung von Protagonisten kein Problem“, sagt Dennis Amour, Geschäftsführer des Bayerischen Journalisten-Verbands (BJV) und Rechtsanwalt. In finanziellen Anreizen sieht er aber schon eine Gefahr. „Gerade bei Sachverhalten, die schwer nachprüfbar sind, wie Gefühlslagen, kann das dazu verleiten, Geschichten zu verändern oder zu erfinden.“

So ist es mutmaßlich bei Tanja und Sascha Mahlberg in Menschen hautnah passiert. Die Autorin der drei umstrittenen Dokus, die ihren Namen öffentlich nicht nennen will, stellt die Ehe der beiden in der Sendung als Vernunftehe dar, auch Sascha Mahlberg spricht darin einmal von einer „Zweckgemeinschaft“. Seit mehr als 30 Jahren ist das Paar verheiratet, drei Söhne, zum ersten Mal war Tanja mit 17 schwanger. Im Film sagt die Sprecherin: „Verliebt waren die beiden nicht.“ Sascha Mahlberg aber sagt der SZ: „Das Kind war unterwegs, und wir haben aus Vernunft geheiratet, aber trotzdem waren wir verliebt.“ Wie kam es zu diesen Widersprüchen?

Freiwillig, sagt die Autorin. Auf Wunsch der Autorin, sagt das Paar. Nach Sichtung des Rohmaterials, das der Presse nicht zur Verfügung gestellt wird, kam der WDR zu dem Ergebnis, die Gefühlslage der Protagonisten sei „verzerrt dargestellt“ worden. Der Sender beendete die Zusammenarbeit mit der Autorin, das Vertrauensverhältnis sei „zerstört“. Bei Komparse.de mögen auch Protagonisten mit wahren Geschichten vermittelt werden, problematisch ist, wie dort Begriffe vermischt werden. Für ein Verbrauchermagazin von RBB wurde im September ein „Protagonist, (…) der einen Versicherungsvertreter spielt (bevorzugt ab einem Spielalter 60 Jahre aufwärts, gern auch korpulent)“, gesucht.

Sascha Mahlberg ist seit 2007 in mehr als 170 Scripted-Reality-Sendungen, Serien und Shows aufgetreten. Neben seinem Hauptberuf als Straßenreiniger bei der Stadt Bonn ist das ein guter Zuverdienst. Oft spielt er in Scripted-Reality-Formaten Drogendealer und Zuhälter, manchmal, wie in der RTL-Dokureihe Reich trifft Arm, sich selbst, seine Familie dreht oft mit. Für die drei Drehtage für Menschen hautnah bekam seinen Angaben zufolge jeder Protagonist 150 Euro.

Ob bezahlt oder nicht, die Grundsätze der Recherche und Sorgfalt müssten auf jeden Fall eingehalten und Sachverhalte überprüft werden, sagt Amour vom BJV. „Sonst wird daraus eine Fantasiegeschichte.“ Und wie stehen öffentlich-rechtliche Sender zu kommerziell vermittelten Protagonisten in Dokumentationen?

Zum Thema Vernunftehe sei in Foren nach Protagonisten gesucht worden, sagt Ellen Ehni, Chefredakteurin vom WDR-Fernsehen. Dass die Autorin dazu auch Komparse.de gezählt hat, sei nicht bekannt gewesen. „Wir erzählen bei Menschen hautnah emotionale und der Faktenrecherche nur bedingt zugängliche Geschichten“, sagt sie. Man müsse ausschließen können, dass Protagonisten aus finanziellem Interesse aus ihrem Leben erzählen. Für Menschen hautnah schließe sie Recherchen über Komparse.de deshalb für die Zukunft aus.

Rechtlich mag eine Bezahlung erlaubt sein, medienethisch ist sie fragwürdig

Andere öffentlich-rechtliche Sender antworten ähnlich. „In dem Moment, wo man sich Menschen über Agenturen vermitteln lässt, die zu bestimmten Dingen alles sagen, ist das ein Schlag ins Gesicht der Glaubwürdigkeit“, sagt Kai Henkel, Leiter Dokumentation und Gesellschaft beim SWR-Fernsehen. Konfrontiert mit Gesuchen für die jeweiligen Sender auf Komparse.de, zeigen sich MDR, NDR und RBB überrascht. Das Inserat zu Mietern mit Radonbelastung auf Komparse.de sei der Redaktion nicht bekannt, heißt es etwa vom MDR. Ein Auftragsproduzent habe die Plattform wohl genutzt. Oft haben in der Tat externe Produktionsfirmen oder freie Mitarbeiter die Gesuche eingestellt.

Rechtlich mag eine Bezahlung von Protagonisten erlaubt sein, medienethisch ist sie fragwürdig. Das sieht man auch bei den kontaktierten ARD-Anstalten und dem ZDF so. „Protagonisten bekommen keine Gage oder Honorar“, sagt Ehni vom WDR. „Wenn sie sich länger für einen Dreh zur Verfügung stellen, sich möglicherweise Urlaub nehmen, zahlen wir eine Aufwandsentschädigung.“ Henkel vom SWR spricht bei Aufwandsentschädigungen von „maximal dreistelligen Summen im unteren Bereich“, oft würden diese aus Essenseinladungen oder Fahrtkostenerstattungen bestehen.

Wenn die Geschichte steht, bevor der Mensch gefunden ist – dann verschwimmt oft die Realität

Über Plattformen wie Komparse.de und finanzielle Anreize für Protagonisten können freie Mitarbeiter im umkämpften Medienmarkt schnelle Ergebnisse liefern, auch für Menschen hautnah, ein Prestigeformat des WDR mit teils sensiblen Themen und aufwendigen Recherchen. „Die Zeit, die man für diese Recherche aufwendet, bezahlt niemand“, sagte die Autorin vergangene Woche der SZ. Die Recherche beginnt für freie Mitarbeiter in der Regel vor der bezahlten Arbeitszeit. Bei den Sendern will man davon nichts wissen. „Wenn wir es mit einer komplizierten Realisierung zu tun haben, wird natürlich auch der Mehraufwand der Recherche bezahlt, in enger Rücksprache zwischen Autorin und Redaktion“, erklärt Ehni vom WDR. Auch die anderen Sender betonen, beim Honorar den Rechercheaufwand zu berücksichtigen.

Dennoch hat der Fall Konsequenzen. Ehni sagt, künftig solle beim WDR der Rechercheweg komplett offengelegt werden. Die Protagonistenakquise will man in vielen Sendern transparent machen, manche führen bereits, teils stichprobenartig, Rohschnittabnahmen durch.

Nur: Das Problem beginnt schon vorher. Wenn Redaktionen sich quotenbringende Themen ausdenken und dann Protagonisten suchen, die zur Geschichte passen, verschwimmen Erwartungen und Realität. Im Journalismus geht es aber nicht um Geschichten, die in etwa so stattgefunden haben könnten. Sondern um die, die stimmen, zu 100 Prozent. Egal, ob sie Quote bringen oder Preise.

Social Media und Fußballer: Shitstorm versus Fan-Nähe

Fotos oder Videos können schnell zum Shitstorm führen. Fußballer sind privilegiert, werden im deutschen Profi-Sport im Vergleich am besten bezahlt. Bilder vom neuen Auto, teuren Klamotten oder vergoldeten Steaks gefallen nicht jedem. Mancher Spieler wirkt in dieser Situation überfordert oder auch zu selbstbewusst. „Wenn man drei Millionen Follower hat, entsteht ein Machtgefühl“, sagt der Hamburger Digital-Berater Martin Fuchs.

Der ehemalige Handballer Stefan Kretzschmar indes prangerte zuletzt an, für Leistungssportler gebe es keine Meinungsfreiheit mehr. Nichts mehr sagen können? Nichts mehr zeigen dürfen?

Fuchs bezweifelt, dass Fußballclubs keinen Einfluss darauf nehmen, was ihre Spieler in ihren Socia-Media-Kanälen veröffentlichen. „Ich habe eher das Gefühl, dass es seit sehr vielen Jahren klare Leitlinien im Profifußball gibt, was sie dürfen und was nicht und die Vereine sie da an die relativ kurze Leine nehmen.“

Laut Ulf Baranowsky, Geschäftsführer der Fußball-Spielergewerkschaft VDV, gibt es in den Musterarbeitsverträgen der Profis klare Regeln zu öffentlichen Äußerungen der Spieler. Der Umgang mit diesen Regelungen werde in der Praxis aber unterschiedlich gehandhabt.

„Aufgrund der Vielfalt an Möglichkeiten, sich über Social Media zu äußern, ist es insbesondere für kleinere Clubs nicht leicht, die Kontrolle darüber zu behalten, was einzelne Spieler dort posten“, sagt Baranowsky jedoch auch. Von der Deutschen Fußball Liga gibt es keine Social-Media-Richtlinien, die an die Vereine weitergegeben werden.

Eine Reihe von Fußball-Bundesligisten gibt wie auch der Deutsche Olympische Sportbund offiziell keine klar umrissenen eigenen Richtlinien aus, was im Internet gepostet werden darf und was nicht. Während das IOC seinen Olympioniken vorschreibt, auf politische Propaganda oder Werbung zu verzichten, behilft sich ein Club wie die TSG Hoffenheim mit einer Empfehlungsliste. Fotos von den neuesten Sportklamotten, die nicht vom Ausrüster kommen, sollten demnach besser nicht veröffentlicht werden.

Beim Zweitliga-Spitzenreiter Hamburger SV haben die Profis selbst einen Strafenkatalog erstellt. Falls Spieler wiederholt Bilder aus der Kabine oder dem Mannschaftsbus posten, muss in die Mannschaftskasse eingezahlt werden.

Wer seine Kanäle auf Facebook, Twitter oder Instagram regelmäßig mit neuen Infos, Bildern und Videos bespielen will, hat damit viel Arbeit. Ein Aufwand, den viele Spieler nicht komplett allein übernehmen.

„Spitzenspieler werben nicht selten für private Sponsoren und lassen deshalb ihre Social-Media-Kanäle in der Regel von Beratungsunternehmen betreuen. Manche Spieler stellen Inhalte aber auch selbst ein“, sagt Baranowsky. „Der Spieler muss den Account nicht selber pflegen mit Inhalt. Er sollte aber wissen, was auf seinem Kanal passiert“, meint Fuchs. Sonst droht schnell der nächste Shitstorm.

Die neuen Online-Medien und die Gefahr der Bubble

Zahlreiche alternative Publikationen versuchen auf dem digitalen Markt zu bestehen – allen voran die „Republik“. Doch neben finanziellen Hürden reibt sich das Magazin auch an seiner Peergroup. Kann es so seine hohen Ansprüche erfüllen?

Bescheiden waren sie noch nie, die Macher des Online-Magazins „Republik“. Man arbeite, so erklärte einer seiner Feuilletonisten bei einer Veranstaltung im Zürcher Szenelokal „Kosmos“, „für die Demokratie und die Menschheit“. Ex-SRG-Direktor Roger de Weck, der um die Redaktoren herumscharwenzelte und sie mit neckischen Fragen unterhielt, schwärmte derweil von der „force tranquille“ seines neuen digitalen Leibblatts und forderte dessen Autoren auf, es „den Mächtigen“ noch „viel unbequemer“ zu machen. Übermäßig zittern, so viel sei vorweggenommen, musste der Schweizer Macht- und Geldadel im ersten Lebensjahr der „Republik“ allerdings nicht. Und die Frage, ob das neue Konzept langfristig überlebensfähig ist, bleibt derzeit offen – auch wenn „Republik“-Gründer Constantin Seibt einst verkündete, man sei „der einzige Laden mit Zukunft“ im Lande.

Eine andere Liga

Der Markt für alternative (Online-)Medien ist weltweit in Bewegung. So hat der mitgliederfinanzierte niederländische „Correspondent“ kürzlich in den USA ein weiteres erfolgreiches Crowdfunding gestartet. Die deutsche Ausgabe der „Huffington Post“ dagegen, 2013 ebenfalls mit großem Trara lanciert, wird per 31. März eingestellt. In der Schweiz gibt es ebenfalls zahlreiche Projekte, vom spendenfinanzierten „Infosperber“ über „heidi.news“ bis zur „Ostschweiz“ und einigen linken Werbeplattformen wie „Journal B“, die unter anderem dank Geld aus dem Basler „Daig“ zum Leben erweckt wurden – als Reaktion auf die Medienaktivitäten von SVP-Doyen Christoph Blocher. Das Flaggschiff dieser medialen Anti-Blocher-Bewegung, die Basler „Tageswoche“, war ohne die Mäzen-Millionen aus dem Umfeld von Roche-Erbin Beatrice Oeri jedoch nicht überlebensfähig: Nachdem die Spender geschätzte 20 Millionen Franken à fonds perdu investiert hatten, zogen sie sich entnervt zurück. Um die eine Million Franken, welche die Stiftung für Medienvielfalt auch künftig jedes Jahr für Medienprojekte im Raum Basel verteilen will, balgen sich derzeit mehrere Künstler und Journalisten.

Die „Republik“ wollte im Kreis der alternativen Medien schon immer in einer anderen Liga spielen. Das Beispiel der „Tageswoche“ dient ihren Machern als Warnung. „Weil das Geld einfach kam, musste sich die ‹Tageswoche› nie beweisen“, sagt „Republik“-Gründer Christof Moser, „entsprechend funktionierte sie nicht.“ Mäzenatentum sei nie ein Thema gewesen, „wir wollen auf dem freien Markt bestehen“. Das schien dem Projekt anfänglich auch mühelos zu gelingen.

Als Seibts und Mosers „Laden“ am 14. Januar 2018 an den Start ging, löste er einen regelrechten Hype aus. Statt der erhofften 7500 wurden in den ersten Wochen 16 000 Abos verkauft. Das Konzept der Neo-Verleger ist ebenso mutig wie einfach: Die Leser sind selber Verleger und Teil einer Genoßenschaft, Werbung gibt es genauso wenig wie Pflichtthemen, dafür soll die Redaktion den „definitiven“ Text zu einem Thema liefern. Um das Projekt realisieren zu können, mussten die Schreiber ebenfalls auf Unternehmer und Millionenerben zurückgreifen, die zwecks Anschubfinanzierung 3,5 Millionen Franken einschossen. Den größten Teil lieferten die Brüder Daniel und Marcel Meili, die Blocher ebenfalls mit seinen eigenen Mitteln bekämpfen wollen: Millionär investiert in Medium, in der Hoffnung auf erbauliche Berichterstattung.

Wie homogen ist die Leserschaft?

Die Kundschaft der „Republik“ rekrutiert sich denn auch vornehmlich im städtischen, „progressiven“ Milieu, dessen prominenteste Vertreter die „Republik“ schon vor der ersten Nummer mit Lob überhäuften. („Schon lange war der Begriff Republik in der Schweiz nicht mehr so populär“, jubelte etwa der alternative Zürcher Stadtrat Richard Wolff im „Tagblatt“, „wunderbar!“) Etwa ein Drittel lebt in Zürich, ein weiteres Drittel in anderen Städten, der Rest auf dem Land. „Unsere Leserschaft ist weniger homogen als oft behauptet“, sagt Moser, „aber es ist klar, dass wir uns noch breiter abstützen wollen.“

Tatsächlich braucht das Magazin mit dem heutigen Personalbestand (50 Angestellte bei 36 Vollzeitstellen) rund 27 000 Abonnenten, um profitabel zu sein. Ende Jahr kam die „Republik“ laut Moser auf 24 500 Abos; von den 16 000 Kunden, die vor dem Start angeworben worden waren, haben bisher jedoch „nur“ rund 9000 erneut einbezahlt – ein respektabler Wert, wie Moser betont, aber viel zu wenig, um die heutige Redaktion zu finanzieren. Diese ist in der Euphorie des letzten Jahres derart aufgestockt worden, dass die „Republik“ Verluste schreibt – pro Monat etwa 90 000 Franken. Um Gewinne zu schreiben, braucht es laut Moser rund eine Million Franken, weshalb man erneut auf der Suche nach Spendern ist. Die Gebrüder Meili, das bestätigt Daniel Meili auf Anfrage, kommen dafür nicht mehr infrage. Zumal sie stets betont haben, ihr Beitrag stelle ein einmaliges Engagement dar. Sicher ist: Wenn das Geld nicht zusammenkommt, droht ein Stellenabbau.

Um neue Kunden zu gewinnen, müsste die „Republik“ wohl für mehr Aufsehen sorgen als im letzten Jahr. So hat man die Leser zwar mit süffigen Reportagen, Analysen und überraschenden Hintergrundartikeln unterhalten, etwa über die Macht der Migros, die Ursprünge der Klimaforschung oder die Ermordung einer maltesischen Journalistin. Aber die beanspruchte „Lufthoheit in den Debatten“ war kaum ersichtlich, zumal auch kaum große Debatten lanciert wurden. Das vielzitierte Gesellenstück des Jahres war eine Nacherzählung eines bereits bekannten Skandals um ein Bündner Baurechtskartell – glänzend geschrieben, aber unnötigerweise wurde um den Unternehmer, der das Ganze verraten hatte, ein pathetisches Rührstück konstruiert. Vom fragwürdigen Geschäftsgebaren dieses Helden erfuhr man dagegen kaum etwas.

Die Aufteilung der Welt in Gut und Böse gehört jedoch genauso zum Konzept wie der manchmal etwas bemüht wirkende Einsatz von Prologen, Epilogen und Sätzen wie: „Es war schon immer so. Wie so vieles in Graubünden. Der Föhn, die Berge, der Tratsch.“ Das Problem dabei ist, dass viele Artikel langfädig, links und erwartbar sind – die Feinde der Menschheit sind fast immer „rechts“, „neoliberal“ oder sonst falsch gepolt, wobei der in Dutzenden Artikeln thematisierte „Populismus“ ebenfalls stets „rechts“ ist. Ist er für einmal links, ist er gut und deshalb nur als positives Gegenmittel erwähnenswert.

Sonst darf es in Sachen Populismus kein Mitleid mit der Leserschaft geben. Denn wer bei diesem Stichwort gähnt, so wurde sie belehrt, hat sich bereits „mit dem Niedergang der freien Gesellschaft abgefunden“. Vermeintliche Gegner dieser Gesellschaft werden auch einmal zünftig abgewatscht. Das gilt etwa für einen liberalen Professor, dem eine anonyme „Republik“-Jury mit bebendem moralischem Furor unterstellte, er wolle die Armen hungern lassen. Sein Vergehen: Er schlägt zaghafte Reformen der Sozialhilfe vor.

Streit um die Köppel-Frage

So schreibt man sich konsequent ins Herz jener Blase, zu der man laut Christof Moser gerade nicht gehören will: „Journalismus soll nicht jene Leute bestätigen, welche die gleiche Meinung haben“, sagt er, „wir wollen nicht für eine Bubble schreiben.“ Die Redaktion sei zwar ideell breit aufgestellt – sie beschäftigt unter anderem Olivia Kühni (ehemals „Schweizer Monat“) und Daniel Ryser (Ex-“WOZ“-Journalist) –, aber auch er sei mit der Meinungsvielfalt noch nicht ganz zufrieden. Ziel des Magazins müsse es sein, „um das beste Argument zu ringen“.

Was Provokationen an die Adresse des urbanen Milieus angeht, hat es die „Republik“ bisher nicht übertrieben. Wenn rot-grüne Politiker etwas abbekommen, heißen sie meist Mario Fehr oder Rudolf Strahm – Speerspitzen sozialdemokratischen Rechtsabweichlertums also. Tut die Redaktion einmal nicht so, wie sie soll, setzt es empörte Reaktionen der „community“ ab. So geschehen, als Olivia Kühni in einem Artikel über Migration offenbar zu wenig Empathie für Flüchtlinge zeigte. Oder als SVP-Nationalrat Roger Köppel ein langes Interview geben durfte. „So einer“ dürfe doch keine Plattform erhalten, lautete der Tenor. Derart unjournalistische Argumente sollten sich bei der „Republik“ nicht durchsetzen – sonst könnte es um Roger de Wecks „force tranquille“ bald (noch) ruhiger werden. Das wäre schade, denn die journalistische Eigeninitiative verdient größten Respekt.

Alibaba-Gründer Jack Ma warnt: “Die nächste Technologierevolution könnte den Dritten Weltkrieg auslösen”

Skeptische Prognosen am Rande des Weltwirtschaftsforums: Alibaba-Gründer Jack Ma prophezeite in Davos, dass der Wettlauf um neue Technologien im Dritten Weltkrieg münden könnte. „Der Erste Weltkrieg wurde durch die erste technologische Revolution ausgelöst. Die zweite technologische Revolution löste dann den zweiten Weltkrieg aus. Die dritte technologische Revolution steht nun bevor“, warnte der Alibaba-Chairman.

Es ist nicht das erste Mal, dass Jack Ma in Verbindung mit der technologischen Entwicklung düstere gesellschaftliche Folgen prognostiziert. Vor zwei Jahren prophezeite der 54-Jährige, dass sich die Weltgemeinschaft im Zuge der großen technologischen und gesellschaftlichen Umwälzungen in den nächsten Jahrzehnten in einer problematischeren Lage befinden werde als heute.

“In den nächsten 30 Jahren wird auf der Welt weit mehr Schmerz als Glück sein, weil es viel mehr neue Probleme gibt, die uns begegnen”, warnte der Alibaba-Gründer seinerzeit auf einer Rede vor dem China Entrepreneur Club. Dabei zielte Ma einerseits auf kommende soziale Unruhen ab, andererseits auf die Umwälzungen im Zuge der Digitalisierung, die viele Arbeitsplätze vernichten würde.

Vor allem künstlicher Intelligenz (KI) – die nach Einschätzung von Ma die dritte technologische Revolution anführen wird – kommt dabei eine Schlüsselrolle zu. Einerseits hält Ma Automatisierungsprozesse aus ökonomischer Sicht für unverzichtbar. “Das menschliche Gehirn kann so viele Daten, wie sie heute produziert werden, gar nicht verarbeiten”, erklärte der Aufsichtsratschef des chinesischen E-Commerce-Giganten.

Das Google-Motto “Sei nicht böse” reicht nicht mehr

Gleichzeitig warnte Ma bereits vor zwei Jahren vor apokalyptischen Konflikten mit KI, wie man sie aus Science Fiction-Filmen kennt: “Maschinen dürften nicht ersetzen, was Menschen leisten.” Die Tech-Gemeinde sei vielmehr dazu angehalten, künstliche Intelligenz so einzusetzen, dass sie Dinge möglich machen würde, die Menschen nicht leisten könnten.

In Davos ergänzte Ma, dass das Google-Motto “Sei nicht böse” als Leitmotiv technologischer Entwicklungen nicht mehr reiche. Trotz seiner erneut kritischen Aussagen erklärte der Alibaba-Gründer, er bleibe hoffnungsvoll, dass der technische Fortschritt die Menschheit voranbringe: “Ich bin kein sehr technischer Mensch, aber glaube, dass Technologie großartig für Menschen ist.”

Mehr Köpfchen für das Handgelenk

Die Begeisterung im Markt für Smartwatches ist verflogen. Neue Ideen sind gefragt. Google und Apple experimentieren mit innovativen Konzepten bei der Bedienung.

Das Geschäft mit den Smartwatches könnte neue Impulse gebrauchen. Vor ein paar Jahren galten diese Produkte noch als der Kulminationspunkt des computertechnischen Fortschritts. Jetzt macht sich Langeweile breit. Nach wie vor gibt es in diesem Markt Wachstum: Im laufenden Jahr sollen 74 Millionen Smartwatches verkauft werden, gut 20 Millionen mehr als 2018. Die Geschäfte laufen gut, aber die Begeisterung ist verflogen; die Marktforschungsfirma Gartner sieht diese Produkte auf dem „hype cycle“ auf dem absteigenden Ast.

Mechanik und Elektronik

Eben noch gefragtes Modeaccessoire, haben Smartwatches heute die Anmutung eines orthopädischen Stützstrumpfes; nicht mehr Fashion Victims, sondern Herzkranke interessieren sich zuvorderst für diese Produkte. Vor einem Monat konnte Apple bekanntgeben, dass die Uhr in den USA für die Überwachung der Herzgesundheit (EKG) parat ist. Die Uhr kann Vorhofflimmern und andere Rhythmusstörungen erkennen. Auch andere Firmen sind so weit: Die französische Withings will im April ein Blutdruckmessgerät und eine Smartwatch auf den Markt bringen, die ein EKG erstellen können. Und die japanische Firma Omron hat eine Uhr angekündigt, die den Blutdruck messen kann.

Die Smartwatches haben sich von einem Lifestyle-Accessoire in ein Medizinaltechnikprodukt verwandelt. Das erklärt auch, warum Fossil, ein texanischer Hersteller von Modeuhren, das Interesse an diesen Produkten verloren hat. Fossil hat vergangene Woche die Smartwatch-Sparte an Google verkauft. Fossil gehört zu den Pionieren in diesem Bereich; bereits kurz nach der Jahrtausendwende hat die Firma erste Smartwatches mit Software von Palm oder von Microsoft lanciert. Dass Google bei Fossil für 40 Millionen Dollar Smartwatch-Know-how einkauft, nährt Vermutungen, dass die Internetfirma in diesem Markt Großes vorhat.

Mechanik und Elektronik vereint

Das Problem mit den Smartwaches ist, dass sie nicht sehr smart sind. Sie stören oft, wie ein ungezogenes Kind, vibrieren, surren, piepsen, zeigen die falschen Informationen zur falschen Zeit an. Und dann ist der Bildschirm dunkel, die Batterie leer.

Die kalifornische Firma Matrix nutzt die Körperwärme, um eine Powerwatch genannte Uhr mit Strom zu versorgen. Die Firma sammelt auf der Finanzierungsplattform Indiegogo Geld für die Powerwatch 2. Bei dieser Uhr soll neben der Körperwärme auch Sonnenlicht genutzt werden. Die öffentliche Finanzierungsrunde, die noch bis Mitte Februar andauert, hat ihr Ziel bereits erreicht und der jungen Firma mehr als eine Million Dollar eingebracht.

Die 2015 gegründete Genfer Firma Manufacture Modules Technologies SA (MMT) entwickelt Uhrwerke, die herkömmliche Mechanik mit Elektronik verbinden. Zur „Horological Smartwatch Platform“ von MMT gehören auch Techniken für die Stromerzeugung. Entsprechende Uhren – es gibt sie von Mondaine oder Frederique Constant (Citizen) – sollen mit einer Batterieladung mehr als zwei Jahre auskommen.

Wenn es stimmt, dass zwei ähnliche Produkte genügen, um einen Branchentrend zu erkennen, dann ist die Kombination von Elektronik und Mechanik derzeit richtungsweisend: Am Genfer Uhrensalon hat die belgische Firma Ressence im Januar eine mechanische Uhr vorgestellt, die mit Solarzellen und Schwungmassen sich die Energie verschafft, um sich mit einem Smartphone zu verbinden zu können. Eine E-Crown genannte Technik erlaubt es, auf die Krone zu verzichten. Es genügt, die Uhr anzutippen, und die Zeiger springen in die richtige Position.
Innovative Bedienkonzepte

Während die Krone bei mechanischen Uhren verschwindet, ist sie bei der Smartwatch von Apple nach wie vor das wichtigste Bedienungselement. Gemessen an den hohen Standards, die in Sachen Benutzerführung bei Apple-Produkten gelten, ist die Bedienung der Apple Watch als umständlich zu bezeichnen. Manchmal reagiert sie auf Eingaben, die nicht der Benutzer, sondern der Ärmel vorgenommen hat, manchmal verweigert sie sich dem Benutzer, weil das regennasse Display die Bewegungen des Fingers nicht erkennt.

Vor wenigen Tagen sind Patente publik geworden, die Apple beantragt hat, um Innovationen bei der Bedienung von Smartwatches zu schützen. Es soll dereinst möglich sein, die Uhr durch Bewegungen der Hand zu steuern. Beispielsweise würde es genügen, die Faust zu ballen, um einen Anruf anzunehmen.

Google erforscht bereits seit 2015 im Rahmen eines Soli genannten Projekts die Möglichkeiten eines in die Uhr eingebauten Mini-Radarsystems. Es kann Fingerbewegungen in der Nähe der Uhr erkennen. Auf diese Weise lässt sich die Uhr auch bedienen, wenn sie unter dem Ärmel oder in einer Tasche verborgen ist. Am letzten Tag des vergangenen Jahres hat die amerikanische Federal Communications Commission (FCC) der Internetfirma die Erlaubnis gegeben, den Radarsender in einer höheren Frequenz zu betreiben. Die Behörde hat einem Antrag von Google stattgegeben, weil Störungen nicht zu erwarten seien und die Technik von „öffentlichem Nutzen“ sei. Der Antrag könnte als Hinweis darauf gewertet werden, dass Google die Gestensteuerung für Armband-Computer nun doch zu kommerzialisieren gedenkt.

Die Lügen der hyperaktiven Cyborgs

Aktuell hat das Wissenschaftsmagazin Science eine Studie zur Verbreitung von Fake News auf Twitter veröffentlicht. Durchgeführt wurde sie von Politik- und Datenwissenschaftlern der Universitäten Harvard, Buffalo und Northeastern. Um herauszufinden, wie stark die Wähler von diesen Nachrichten beeinflusst wurden, haben die Wissenschaftler mehr als 16 000 Twitter-Accounts untersucht, die während der US-Wahl 2016 aktiv waren, und die registrierten US-Wählern zugeordnet werden konnten. Dadurch konnten die Forscher zum einen sicher sein, dass sie es mit echten Personen zu tun hatten. Zum anderen kannten sie über die Wählerregistrierungen auch Angaben über Geschlecht, Alter und Hautfarbe der Twitter-Nutzer. So konnten sie prüfen, ob diese Merkmale einen Einfluss auf Verbreitung und Konsum von Fake News haben.

Die Ergebnisse bestätigen die Erkenntnisse mehrerer Studien, die in den vergangenen zwei Jahren veröffentlicht wurden. Demnach stammt ein Großteil der auf Twitter verbreiteten falschen Nachrichten von einigen wenigen, überwiegend rechten Nachrichten-Portalen. Von denen sind wiederum sieben Portale für mehr als 50 Prozent der geteilten Falschnachrichten verantwortlich, darunter die berüchtigten Seiten Infowars und Daily Caller.

Eine weitere Erkenntnis: Fast 80 Prozent der Fake-News-Artikel werden von nur wenigen hyperaktiven Nutzern geteilt und konsumiert. Die Forscher gehen deshalb davon aus, dass es sich bei diesen „hyperaktiven“ Accounts zwar nicht um „Social Bots“, also automatisierte Programme, aber um teilautomatisierte „Cyborgs“ handelt. Auch die Demographie spiele eine Rolle: Demnach steigt die Wahrscheinlichkeit, viele Fake News zu konsumieren und zu teilen, mit der konservativen Einstellung und dem Alter.

Hinter der chinesischen Firewall

Sechs Jahre nachdem Xi Jinping die Anweisung gab, „die Kommandohöhen im Internet zurückzuerobern“, zeigt sich, dass der Krieg, den die Kommunistische Partei Chinas führt, gewonnen werden kann. Die chinesische Digitalbranche boomt, das Land gehört zu den innovativsten in Sachen Künstlicher Intelligenz, und Internetkonzerne wie Alibaba zählen zu den größten der Welt. Mehr als 770 Millionen Chinesen bewegen sich online. Die Grenzen der Welt, die sie dort zu Gesicht bekommen, sind allerdings enger gezogen als zu jedem früheren Zeitpunkt.

Eric Schmidt, der ehemalige Vorstandsvorsitzende von Google, sprach vor einigen Monaten von einer „Aufspaltung“ des Internets in einen westlichen und einen chinesischen Teil, wobei letzterer eher einem Intranet, also einer abgeschotteten Online-Sphäre gleicht. Denn seit Xi Jinping 2013 zum Staatspräsidenten der Volksrepublik China wurde, setzt seine Partei auf eine rigide Zensurpolitik im Netz. 2015 präsentierte er auf der „Welt-Internet-Konferenz“ in der Provinz Zhejiang sein Konzept der „Cyber Sovereignity“, ein Begriff, der die Hoheitsansprüche der chinesischen Regierung über das Internet im eigenen Machtbereich verdeutlichen soll.

Nur wenige Jahre zuvor, zwischen 2010 und 2012, organisierten sich im nordafrikanischen und arabischen Raum große Mengen von Demonstranten vornehmlich über die sozialen Netzwerke. Die Protestwelle schwappte bis nach Peking, wo sich ebenfalls online Protestaufrufe verbreiteten, bis es in mehreren Städten zu Demonstrationen kam, die unter staatlichen Repressionen ihr jähes Ende fanden.

Die Kommunistische Partei bezieht sich auf die damaligen Ereignisse, um den Aufbau eines umfangreichen Systems der Online-Zensur zu rechtfertigen, dessen Größe und Effektivität seinesgleichen sucht. All die Stimmen, von der des ehemaligen amerikanischen Präsidenten Bill Clinton bis zu der des Künstlers Ai Weiwei, die dem Internet und den sozialen Medien einen inhärenten Freiheitsdrang zuschrieben, der ihnen nicht ausgetrieben werden könne, sind von China vorläufig eines Besseren belehrt worden.

Das Zensursystem greift schon an den Rändern des Internets. Die „große chinesische Firewall“, eine Sammelbezeichnung für alle technischen Abschottungsmethoden, blockiert weite Teile der westlichen Online-Welt, wie etwa Facebook oder Twitter, im chinesischen Netz. Die Behörden setzen ausgewählte IP-Adressen auf schwarze Listen oder filtern bestimmte Schlagwörter aus den Suchanfragen heraus. In den letzten beiden Jahren hat die Regierung begonnen, auch die letzten Schlupflöcher, sogenannte VPN-Verbindungen, für die breite Bevölkerung zu schließen. Mit ihnen konnte man in China über Umwege auf westliche Internetseiten zugreifen, ohne einer Blockade zu unterliegen. Seit 2017 müssen sich Anbieter von VPN-Clients in China offiziell registrieren lassen, sogar Apple hat unter dem Druck der Regierung sämtliche dementsprechenden Programme aus seinem Appstore der in China verkauften Handys gelöscht.

Die chinesischen sozialen Netzwerke sind deswegen nicht verstummt – im Gegenteil. Websites wie der Mikroblogging-Dienst „Weibo“ oder die Kommunikationsplattform „WeChat“, die ungefähr eine Milliarde Nutzer vereint, sind überaus erfolgreich. Doch obwohl es sich größtenteils um private Online-Unternehmen handelt, sind sie eng mit der Bürokratie und Partei verwoben. Wer in China ein erfolgreiches Geschäft führen will, kommt ohne den Zuspruch oder zumindest die Duldung durch den Staatsapparat nicht aus. Das erfuhr auch der Unternehmer Zhang Yiming, dessen Newsapp den Ärger der chinesischen Internetaufsichtsbehörde auf sich zog, weil deren Algorithmus es den Nutzern ermöglichte, Parteipropaganda aus dem Weg zu gehen. In einem Entschuldigungsschreiben spricht er davon, das „sozialistische Kernwertesystem“ vernachlässigt zu haben, und gelobte, die „Kooperation mit den Parteimedien“ zu intensivieren. Was die enge Bindung der Online-Unternehmen an den chinesischen Staat für die Freiheit im Netz bedeutet, zeigte sich schnell: Die Firma von Yiming stellte viertausend neue Mitarbeiter ein, die nachrichtliche Inhalte kontrollieren sollen.

Ein Großteil der chinesischen Zensur funktioniert, anders als die klassische Zensur im 19. Jahrhundert, nicht über rigide Vorabkontrollen staatlicher Beamter, sondern dank der Bereitschaft großer Internetkonzerne zur Selbstkontrolle. Viertausend Zensoren beschäftigt etwa das Unternehmen Beyondsoft, das für mehrere Nachrichtenseiten und soziale Netzwerke die operative Zensur übernimmt. Um „gefährliche Inhalte“ schnell und zielsicher erkennen zu können, werden die Beschäftigten umfangreich ausgebildet. Dort hören die Mitarbeiter häufig zum allerersten Mal von politischen Ereignissen wie dem „4. Juni“, der gewaltsamen Niederschlagung der Studentenproteste auf dem Tiananmen-Platz, allerdings nicht aus pädagogischen Gründen, sondern um zu lernen, welche Themen und Schlagwörter sie zensieren sollen. Anfällig für Löschungen sind auch Beiträge in den sozialen Medien, die den Namen Fang Binxing, den „Vater der großen chinesischen Firewall“, oder den orwellschen Begriff „Wahrheitsministerium“ nennen.

Hu Yong, Professor an der Journalistenschule der Pekinger Universität, erkennt in den Maßnahmen der Partei das Bestreben, große Teile des kollektiven Gedächtnisses auszuschalten. Die Zensur ziele beständig darauf ab, dass die online kommunizierende Gesellschaft wichtige politische Ereignisse vergisst, die nicht in den Propagandakanon passen. Denn ohne geteilte Erinnerungen und ohne Möglichkeit, sich zu organisieren, schwinden auch die Chancen, demokratische Reformen zu fordern.

Anders als im Westen häufig angenommen, ist die chinesische Online-Welt aber keineswegs ein kritikfreier Raum. Ein Forscherteam um den Harvard-Professor Gary King fand heraus, dass „trotz der weitverbreiteten Zensur in sozialen Medien“ das chinesische Volk „scharfe Kritik an seiner Regierung und seinen Führern“ üben darf, ohne ein hohes Risiko einzugehen, dass die Kritik gelöscht würde. Die Zensoren greifen erst dann mit „militärischer Präzision“ ein, wenn ein Online-Beitrag zu „kollektivem Vorgehen“ aufruft. Als es etwa 2011 zu Ausschreitungen in der inneren Mongolei kam, weil die industrielle Kohleförderung Weideland zerstörte, wurden bis zu siebzig Prozent aller Beiträge zu diesem Thema gelöscht – positive wie negative.

Um online die Thematisierung von Ereignissen, die Proteste hervorrufen können, zu stören, greift die chinesische Regierung auch auf ungewöhnliche Mittel zurück. So unterhalten verschiedene staatliche Behörden mehrere zehntausend Internet-Kommentatoren, deren Aufgabe darin besteht, mittels banaler oder patriotischer Nachrichten normale Nutzer von Demonstrationsaufrufen abzulenken. Die Forscher um Gary King präsentieren mehrere Beispiele aus der Zeit der Proteste in Hongkong 2014, als Hunderttausende staatlich bezahlte Accounts in den sozialen Medien Kommentare absetzten, die Phrasen wie: „Wir alle müssen härter arbeiten und die Initiative ergreifen, damit das Land vorwärts geht“, enthielten. Auch auf diesem Weg soll verhindert werden, dass einzelne Proteste sich über das Internet zu Massendemonstrationen ausweiten.

Marcus Hernig, der seit 1992 in China lebt und einige Sachbücher über das Land publiziert hat, erklärt das auffällige Vorgehen der Zensoren mit der Angst der chinesischen Regierung vor „mündigen politischen Gruppen“, die sich außerhalb der Kommunistischen Partei organisieren. Sobald Kritik und Missfallen nicht mehr innerhalb der als legitim betrachteten Institutionen geäußert werden, fürchte man in China die „Destabilisierung“ des ganzen Landes. Innerhalb der Institutionen seien Einwände und kritische Hinweise durchaus erwünscht.

Die Fülle der digitalen Zensurmaßnahmen läuft keineswegs ins Leere. „Das chinesische Internet ist unpolitischer und konsumorientierter geworden“, resümierst Hernig die letzten Jahre. Es gebe immer weniger kritische Blogs, die von einem Massenpublikum gelesen werden. „Die Kommunikation verlagert sich immer mehr auf Plattformen wie ,WeChat‘, auf denen sich eher kleine Gruppen im Privaten austauschen“. Einen baldigen Protest, der, von den sozialen Medien angeheizt, das ganze Land erfasst, erwarte er nicht. „Die Kommunistische Partei hat das Internet fest im Griff.“ Xi Jinping sieht er auf dem besten Weg, den Kampf um die Herrschaft über das chinesische Internet zu gewinnen.

Widerstand im Google-Sektor

Die Mission seines Konzerns bestehe darin, dass Informationen jedem dienten und nicht nur wenigen. So beschreibt Google-Chef Sundar Pichai, 46, die Rolle seines Unternehmens in Reden. Pichai selbst hat sich aus armen Verhältnissen an die Konzernspitze hochgearbeitet. Sein Glaube an die Technik ist kaum zu erschüttern. Nun allerdings traf er in Berlin auf Zuhörer, die Google und dem Chef des Suchmaschinenkonzerns die Rolle des selbstlosen Dienstleisters nicht abnehmen wollen.

Einen ganzen Tag war Pichai in Berlin unterwegs. Anlass war die Eröffnung der neuen Büros in der deutschen Hauptstadt. „Google hau ab“, stand auf Bettlaken, die Unbekannte aus Fenstern der TU hängen ließen, wo Pichai am Morgen vor gut 1000 Studenten sprach. Im Gebäude lagen Flugblätter aus, die dem Konzern den Missbrauch seiner Datenmacht vorwarfen. Die Proteste am Rande des Auftritts machten klar, wie schwer es Pichai gerade in Europa und besonders in Berlin hat.

Eigentlich trieben Pichais deutsche Statthalter in Kreuzberg auch noch eine Art Gründerzentrum für Start-ups voran. Doch nach Demonstrationen zog sich Google aus dem Vorhaben zurück. Nun beginnt Pichai aus bunten Büros in Mitte eine Charmeoffensive in der deutschen Hauptstadt. Etwa 300 Mitarbeiter finden in den Großraumbüros in einem historischen Gebäudekomplex in der Nähe der Museumsinsel Platz, den Stararchitekt David Chipperfield modernisiert hat.

Mit dem historischen Gropius Ensemble bezieht der Konzern erstmals ein eigenständiges Gebäude in der Hauptstadt. Ein Forscherteam treibt von hier aus die Künstliche Intelligenz in Google-Produkten voran, die Pichai zur Zukunft des Unternehmens erklärt hat. In den neuen Räumen, die freundliche Titel tragen wie „Da kiekste wa“ oder „Arm aber sexy“, soll die Digitalisierung vom Risiko zur Chance werden. Ziel des Konzerns ist es, mit einer Bildungsoffensive zwei Millionen Deutsche digital weiter zu bilden – einen Teil davon auch in der neuen Berliner Zentrale.

Google will sich als Partner der Politik etablieren

Pichai stellte mit Gewerkschaften und Handelskammern ein Programm vor, das Beschäftigten digitale Kompetenzen vermitteln und Google als Partner von Wirtschaft und Politik etablieren soll. Ziel sei es, dass jeder vom digitalen Wandel profitiere, so Pichai.

„Es ist eine aufregende Zeit, Googler in Berlin zu sein“, sagte der Firmenchef. Berlin sei seit langem eine Hauptstadt der Kultur und der Medien, lobte der Google-Chef. „Mehr und mehr entwickelt sie sich auch zu einem Zentrum der Start-up-Szene und zu einem Innovationsmotor“.

Dann hatte der Manager Digitalpolitiker des Bundestages zum Gespräch in die Google-Büros gebeten. Am Abend gab es einen Empfang mit Digitalisierungs-Staatsministerin Dorothee Bär (CSU) und Berlins Regierendem Bürgermeister Michael Müller (SPD) – und erneut Proteste von Demonstranten. Die Nähe zur Politik ist Google wichtig. Für den Konzern-Chef wird es in Europa ungemütlich. Die Datenschutzregeln wurden verschärft. Frankreich hat über Google gerade als erstes Land eine Millionenstrafe verhängt. Und dann ist da die Debatte um eine Digitalsteuer für IT-Konzerne.

Pichai äußerte sich in Berlin nicht zu den Differenzen mit Europas Regierungen. Zentraleuropa-Chef Philipp Justus sagte, der Konzern wisse, dass sich Steuersysteme der Staaten mit dem Wandel der Wirtschaft ändern müssten. Eine Steuer weniger Staaten auf wenige Unternehmen könne aber nicht der richtige Weg sein.

Ein Schild am Ausgang des neuen Zentrums macht deutlich, in welchen Welten der Konzern denkt. „You are leaving the Google Sector“, steht dort im Stile der Checkpoint-Charlie-Schilder. „Sie verlassen den Google Sektor.“

Dokusender 2019: Die Zeichen stehen auf Wachstum

Die kleinen Nischensender wachsen immer weiter und beanspruchen immer mehr vom Quotenkuchen für sich. Und längst wachsen nicht mehr nur die Männer- und Frauensender – 2018 waren es vor allem zwei Dokukanäle, die auf sich aufmerksam machten. Die Rede ist von ZDFinfo und kabel eins Doku. Lange dominierte ZDFneo die Schlagzeilen beim Wachstum der Nischensender, inzwischen ist aber auch ZDFinfo schon bei 1,4 Prozent Marktanteil angekommen. Besser als derzeit lief es für den Sender noch nie – und es sieht so aus, als wären für den Sender noch weitere Zugewinne drin. kabel eins Doku war derweil der Sender mit dem höchsten Zugewinn überhaupt: Von 0,3 Prozent in 2017 ging es im vergangenen Jahr auf satte 0,7 Prozent Marktanteil in der Zielgruppe nach oben.

Ähnlich wie ZDFinfo steckt auch bei kabel eins Doku noch einiges an Musik drin: Zuletzt erzielte der Sender bereits eine eins vor dem Komma. Doch woher kommt der Erfolg? Senderchef Marc Rasmus sagt, man bediene inzwischen gezielt die Bedürfnisse der Zielgruppe. „Unsere programmliche Ausrichtung hat sich geändert: weg von Special-Interest-Genres und Dokus mit vorrangig hohem Schauwert, hin zu breiten und relevanten Themenbereichen.“ Der Fokus des Senders liegt auf Dokus, die informativ und unterhaltsam zugleich sein sollen. Er sei überzeugt davon, so Rasmus weiter, dass der Sender „weiteres Wachstumspotenzial“ habe und die Marktanteile weiter steigern könne.

Auch bei ZDFinfo hat sich in den zurückliegenden Jahren einiges geändert. Senderchef Robert Bachem sagt, man sei „klarer“ im Programmangebot geworden. „Bei uns findet der Zuschauer lange Dokumentationsstrecken aus Politik, Gesellschaft, Geschichte, True Crime und Wissenschaft.“ Zudem habe man auch die veränderten Interessenlagen bei den Zuschauern unter 50 Jahren reagiert und die Dokustrecken zu Außenpolitik-Themen deutlich ausgeweitet. „Durch den Output-Deal mit PBS-Frontline verfügen wir zudem über die wichtigen Hintergrund-Dokus aus den USA rund um Donald Trump. Das Interesse daran ist immens gestiegen“, sagt Bachem gegenüber DWDL.de. Geht es nach dem Willen des Senderchefs, soll ZDFinfo auch künftig wachsen. „Wir glauben, dass wir noch mehr Menschen für unsere Themen und auch unsere Herangehensweise erreichen können.“ Zunächst gehe es aber immer erst einmal darum, das Erreichte zu sichern. Auch das sei nicht trivial, betont Bachem.

True Crime und Trump besonders beliebt

Doch was läuft bei den derzeitigen Doku-Shootingstars besonders gut? Bei kabel eins Doku sind es vor allem die Programmfarben „Recht und Ordnung“ und „Geheimnisvolle Phänomene“. Erfolgreichste Sendung im vergangenen Jahr war eine Ausgabe der True-Crime-Reihe „Homicide Hunter – Dem Mörder auf der Spur“, die 2,8 Prozent Marktanteil eingefahren hat. In diesem Jahr will man unter anderem die zehnte Staffel von „Unerklärliche Phänomene – Ancient Aliens“ als erster Free-TV-Sender auf die Bildschirme bringen. Bei ZDFinfo laufen deutsche Gesellschaftsthemen oft gut: Also etwa ein Dreiteiler über den Rockerkrieg bei den Hells Angels oder eine Doku, die einen Blick hinter die Kulissen von Burschenschaften gewährt. Hinzu kommt, wie oben bereits erwähnt, das große Interesse an Inhalten rund um Donald Trump. Und auch ZDFinfo punktet, allen voran bei den weiblichen Zuschauern, mit True-Crime-Inhalten. Highlight in diesem Jahr ist bei ZDFinfo unter anderem die National-Geographic-Reihe „One Strange Rock“ mit Will Smith als Presenter. Ansonsten stehen viele Jahrestage an, unter anderem der 80. Jahrestag des Beginn des Zweiten Weltkriegs. Das wird man mit einer Reihe begleiten.

ZDFinfo und kabel eins Doku sind längst nicht die einzigen Doku-Sender am Markt. Mit N24 Doku hat auch Axel Springer einen entsprechenden Kanal. Wie erfolgreich dieser ist, lässt sich aber nicht mit Bestimmtheit sagen, weil das Unternehmen die Quoten nur gemeinsam mit Welt ausweist. Beide Sender werden auch gemeinsam vermarktet. WeltN24-Geschäftsführer Torsten Rossmann (Foto rechts) sagt gegenüber DWDL.de, man sei in den vergangenen beiden Jahren beim Aufbau der technischen Reichweite gut vorangekommen. „Wir wachsen Monat für Monat in der technischen Reichweite. Damit steigen auch die Marktanteile. Eine möglichst große GfK-Reichweite ist unser erstes Ziel. Derzeit liegen wir bei rund 58 Prozent aller TV-Haushalte.“ Neben den überall gut laufenden Crime-Formaten punktet N24 Doku auch mit Sendungen in den Genres Technik und Space. Noch im ersten Quartal will man zudem einige Weltraum-Formate zeigen, Anlass ist das 50. Jubiläum der ersten Mondlandung. Eins jedenfalls steht fest: N24 Doku wird auch künftig N24 Doku heißen und sich nicht umbenennen, etwa in Welt Doku. „Eine Namensänderung ist derzeit für uns kein Thema“, sagt Rossmann auf Nachfrage. Zuletzt überarbeitete der Sender ja auch sein Design.

Demmel kritisiert Öffentlich-Rechtliche

Zwei Sender, die nicht im engeren Sinne Doku-Kanäle sind, aber dennoch viele Dokus und Reportagen zeigen, sind n-tv und Phoenix. „Konkurrenz belebt, aber erschwert natürlich auch das Geschäft“, sagt n-tv-Chef Hans Demmel (Foto links) über die aufstrebenden Konkurrenten. Demmel kritisiert die aus seiner Sicht vorhandene „Schieflage“, die sich durch die Öffentlich-Rechtlichen ergeben würde. Diese würden Dokus aus dem Hauptprogramm in die Spartenprogramme verschieben. „Unabhängig davon haben wir uns aber für eine stärker Nachrichten-orientierte Ausrichtung entschieden und unseren News- und Wirtschaftsanteil im vergangenen Jahr nochmals deutlich ausgebaut.“

Die beiden Phoenix-Programmgeschäftsführer Michaela Kolster und Helge Fuhst verweisen auf ihren stabilen Jahresmarktanteil in Höhe von 1,1 Prozent beim Gesamtpublikum. „Angesichts der zunehmenden Fragmentarisierung des Medienmarktes, der Spezialisierung von Doku-Sendern und des allgemein wachsenden Konkurrenzangebotes im Bereich der Sender und Videoplattformen, werden wir uns darauf aber nicht ausruhen.“ Im Vergleich zu den reinen Doku-Sendern vernetze man die Dokus mit der Liveberichterstattung und den Talk-Formaten zu einem ganzen Bild. An Ostern plant Phoenix den Thementag „Einmal um die Welt“ mit Auslandsreportagen von ARD- und ZDF-Korrespondenten. Am 1. Mai gibt es im Anschluss an die Gewerkschaftskundgebungen zudem einen mehrstündigen Doku-Schwerpunkt über moderne Arbeitswelten.

Doch woher kommt nun eigentlich die neue Lust der deutschen TV-Zuschauer auf Dokus und Reportagen? Und wie wirkt sich die zunehmende Konkurrenz auf den Markt aus? „Das gewachsene Interesse für Dokumentationsformate gerade auch in den jüngeren Zuschauergruppen lässt sich darauf zurückführen, dass in diesen politisch aufgewühlten Zeiten das Bedürfnis steigt, Einblicke in die Hintergründe des aktuellen oder zurückliegenden Geschehens zu erhalten“, sagt Robert Bachem von ZDFinfo. Hans Demmel bezeichnet Dokus als „nachhaltiges Wohlfühl-Fernsehen“. Demmel: „Man ist als Zuschauer gut unterhalten und hinterher ein Stück klüger. Also überrascht es nicht, dass Sender, die ausschließlich auf Dokus setzen, ihr Publikum finden.“

Michaela Kolster und Helge Fuhst von Phoenix vergleichen den Doku-Trend mit dem derzeitigen Boom der Fiction-Serien. Sie sagen: „Neben dem merklichen Trend erfolgreicher Fictionserien nehmen wir als Informationskanal gleichzeitig eine große Nachfrage nach authentischen Informationen, hintergründigen Einordnungen und vertiefenden Diskussionen wahr.“ Gerade in Zeiten zunehmender Komplexität würden Dokus für die nötigen Hintergründe sorgen. WeltN24-Geschäftsführer Rossmann sagt, die Qualität der Produktionen werde jedes Jahr besser und auch die Bandbreite der Themen nehme zu. „Hinzu kommt noch ein anderer wichtiger Aspekt: In eine Dokumentation kann man jederzeit einsteigen und bleibt deshalb auch beim Zappen hängen.“

Doch es gibt auch Herausforderungen für die Doku-Sender. Durch die Tatsache, dass es immer mehr Anbieter gibt, verschärft sich auch der Kampf um die Inhalte. Was beim Sport und anderen Genres längst Realität ist, schwappt nun auch auf den Doku-Bereich über. „Die Programmversorgung wird zunehmend herausfordernder. Factual-Programme sind beliebt und begehrt“, sagt kabel-eins-Doku-Chef Marc Rasmus. Auch Robert Bachem will künftig „noch besser und noch schneller gutes Programm identifizieren und beschaffen“. Denn: „Die Konkurrenz schläft nicht und das Angebot ist nicht unendlich.“

Wie EU-Beamte russische Fake-News bekämpfen

Die amtliche Propagandaabwehr der EU befindet sich in einem unscheinbaren Großraumbüro im Europäischen Auswärtigen Dienst im Herzen des Brüsseler Europaviertels. Konzentriert sitzen die Mitarbeiterinnen und Mitarbeiter der sogenannten Task-Force East Stratcom vor ihren Bildschirmen und stöbern im Internet nach russischer Desinformation. Wichtige Quellen sind die direkt von Moskau finanzierten Auslandmedien Russia Today und Sputnik. Auch auf Websites wie Newsfront und in den sozialen Netzwerken finden sich Fake-News. In den letzten Wochen waren die Demonstrationen der „gilets jaunes“ in Frankreich ein beliebtes Sujet. Die Proteste passten zum Narrativ der Desinformationskampagnen, wonach die westliche Demokratie zugrunde gehe und Europa in einem Bürgerkrieg zu versinken drohe, sagt ein Mitarbeiter der Task-Force.

Datenbank mit 4500 Meldungen

In Moskau wird die Arbeit der seit 2015 operativen EU-Task-Force mit Skepsis verfolgt. Aus Angst vor Drohungen und Hasskampagnen dürfen die Namen der Teammitglieder darum nicht in der Zeitung erscheinen. Die Task-Force hat keine Befugnisse, um Websites oder Falschinformationen mit Netzsperren zu zensurieren. Doch die Mitarbeiter sammeln Beispiele russischer Desinformation, die nach interner Prüfung in einer Online-Datenbank publiziert werden. 4500 manipulative Meldungen in 18 Sprachen hat die Task-Force seit ihrer Gründung offengelegt, allein im Jahr 2018 waren es knapp über 1000 Botschaften. Allerdings ist es nicht immer leicht, zu entscheiden, ob eine propagandistische Meldung als Fake-News zu qualifizieren ist oder nicht. Die EU definiert Desinformation als nachweislich falsche oder irreführende Informationen, die die Öffentlichkeit täuschen und Schaden anrichten sollen. Satire oder parteiische Berichterstattung sind ausdrücklich ausgenommen.

Relativ klar ist der Fall bei Unwahrheiten, die objektiv widerlegbar sind. Ein Task-Force-Mitarbeiter hat auf seinem Bildschirm einen Artikel mit einer Europakarte aufgerufen. Aus Anlass der Proteste der „gilets jaunes“ stehen auf der Online-Grafik all jene EU-Staaten in Flammen, die in jüngerer Vergangenheit von größeren Ausschreitungen heimgesucht wurden. Dass auch das Nicht-EU-Mitglied Norwegen als EU-Land aufgeführt ist, ist nachweislich falsch, aber wohl eher ein Versehen als ein Manipulationsversuch. Offensichtlicher ist die irreführende Absicht bei verifizierbar gefälschten Statistiken, erfundenen Zitaten oder Bild- und Videoaufnahmen, die zu einem anderen Zeitpunkt oder an einem anderen Ort entstanden sind, als die manipulative Meldung suggeriert.

Weit weniger klar ist der Fall, wenn ein Artikel auf wahren Begebenheiten und realen Auseinandersetzungen rund um Migration, Brexit oder Terrorismus beruht, aber Tatsachen verdreht, um einen Sachverhalt zu verfälschen oder ein Problem aufzubauschen. Ursprünglich hatte die Task-Force solchen Artikeln auch in Medien von EU-Ländern nachgespürt. Seit dem Frühjahr 2018 aber nimmt sie derartige Meldungen nur noch in die Datenbank auf, wenn sie direkt aus den von Moskau finanzierten Medien Russia Today und Sputnik stammen und einem bekannten russischen Narrativ entsprechen.

Zensur aus Brüssel?

Dass die Brüsseler Beamten ihren Fokus einengten, ist nicht zuletzt auf einen Vorfall im Frühling 2018 zurückzuführen. Damals musste die Task-Force aus ihrer Datenbank Artikel von drei niederländischen Medien entfernen. Ein Medienbericht war wegen eines Übersetzungsfehlers eines Mitarbeiters einer ukrainischen Nichtregierungsorganisation auf die schwarze Liste geraten. Ein anderer war ein satirischer Beitrag, den man in der Task-Force fälschlicherweise für bare Münze genommen hatte. Die Empörung in den Niederlanden über die „Zensur aus Brüssel“ war so groß, dass das Parlament in Den Haag in einer Motion gar die Auflösung der Task-Force verlangte.

Der Vorfall zeigt, wie schmal der Grat zwischen Propagandaabwehr und Beschränkung der Meinungsfreiheit ist. Bei der Präsentation eines neuen EU-Aktionsplans gegen Desinformation wurde der britische Sicherheitskommissar Julian King jüngst nicht müde zu betonen, die EU-Maßnahmen seien „meilenweit von Zensur entfernt“. Gleichzeitig postuliert die EU aber auch ein Recht der Bevölkerung auf verlässliche Information. Umstritten bleibt, welche Rolle öffentliche Stellen wie die EU-Kommission bei der Durchsetzung dieses Rechts spielen sollen. Laut Diplomaten erkennen die baltischen Staaten und andere Länder aus Ostmitteleuropa in der Fake-News-Bekämpfung eine staatliche Aufgabe, während Länder wie die Niederlande und Deutschland bei der Bekämpfung von Manipulationen eher auf die Medien und auf Faktenprüfer aus der Zivilgesellschaft setzen möchten.

Im Dezember beschlossen die EU-Staats- und -Regierungschefs bei ihrem Gipfeltreffen, den behördlichen Kampf gegen Desinformation mit Blick auf die Europawahl von Ende Mai 2019 zu intensivieren. Da die Europawahl faktisch der Summe von 27 nationalen Wahlen gleichkommt, gibt es viele Einfallstore für Hackerangriffe und Manipulationsversuche. Nun soll ein europäisches Schnellwarnsystem nationalstaatliche Stellen zur Fake-News-Bekämpfung vernetzen – wobei noch unklar ist, wie dieses System funktionieren soll.

Sanfte „positive Kommunikation“

Fest steht, dass die Mittel für die Task-Force East Stratcom für das Jahr 2019 von jährlich 1,1 Millionen auf 3 Millionen Euro erhöht worden sind, womit der Personalbestand bis Mitte Jahr von 14 auf 20 Mitarbeiter wachsen soll. Mit den zusätzlichen Ressourcen will die Task-Force nicht in erster Linie die Zahl der entlarvten Artikel in der Datenbank erhöhen, sondern das Augenmerk stärker auf Forschung legen. Konkret sollen die EU-Experten mehr Medien analysieren, frühzeitig neue Trends und Narrative erkennen und untersuchen, auf welchem Weg und über welche Netzwerke sich manipulative Nachrichten verbreiten und verändern. Diese Erkenntnisse sollen mit den EU-Staaten geteilt werden, die dann auf nationaler Ebene darüber befinden sollen, ob und mit welchen Mitteln sie in ihren jeweiligen Öffentlichkeiten Desinformation bekämpfen.

Die russischen Narrative skizzieren ein Bild eines dekadenten und unmoralischen Westens, der traditionelle Familienwerte mit Füßen tritt und von Migranten und Terroristen destabilisiert wird. Beliebte Sujets sind auch der Krieg in Syrien und der Konflikt in der Ukraine – das Nachbarland Russlands wird wahlweise als faschistisches Regime oder als Staat ohne Nation karikiert. Wie Europa auf solche Kampagnen reagieren soll, ist umstritten. In der Brüsseler Task-Force ist man der Ansicht, dass die öffentliche Entlarvung und Richtigstellung von manipulativen Botschaften Wirkung zeige, sofern sie rasch erfolge. Da Moskau nach EU-Angaben jährlich 1,1 Milliarden Euro für die Auslandpropaganda ausgibt und in Sankt Petersburg eine Trollfabrik mit tausend Mitarbeitern betreibt, plädieren Stimmen aus dem Baltikum auch für aggressivere Gegenkampagnen, die wirtschaftliche und soziale Missstände in Russland anprangern.

In ihren Bemühungen zur „positiven Kommunikation“ in Russland und den Staaten in der östlichen EU-Nachbarschaft verfolgt die Task-Force allerdings einen sanfteren Ansatz. Im Zentrum stehen Informationsvideos über den Nutzen von EU-Projekten oder Filme, in denen russische Erasmus-Studenten über ihre Austauschsemester an Universitäten in EU-Ländern berichten. Fraglich bleibt, wie viel die EU mit diesen Bemühungen bewirkt und ob sich der Kreml davon beeindrucken lässt.

Schrems: Druck auf Datenschutzbehörden wird wachsen

Der Datenschutzaktivist Max Schrems ist zwar erfreut über die erste große Strafe im Zusammenhang mit der EU-Datenschutzgrundverordnung. Für Google seien die 50 Millionen Euro aber „fast nichts“. „Das war sicher mal ein Schuss vor den Bug“, so Schrems. In Zukunft werde der Druck auf die Datenschutzbehörden steigen, war der Österreicher überzeugt.

Aufgrund einer unter anderem von Schrems‘ Organisation noyb (Non of Your Business) eingebrachten Beschwerde wurde am Montag in Frankreich erstmals eine Strafe wegen eines Verstoßes gegen die seit Ende Mai 2018 geltende DSGVO verhängt. So seien beispielsweise Informationen zur Verwendung der erhobenen Daten und dem Speicherzeitraum für die Nutzer nicht einfach genug zugänglich, begründete die französische Datenschutzbehörde CNIL. Google will den Beschluss prüfen. Gemäß der Verordnung beträgt die Höchststrafe vier Prozent vom Jahresumsatz, im Fall von Google wären das knapp 4 Milliarden Euro.

In einer ersten Reaktion hat der Konzern laut Schrems seinen Unternehmenssitz aber bereits in der Nacht auf Dienstag nach Irland verlegt. Damit sei nicht mehr die französische, sondern die irische Datenschutzbehörde zuständig. Dies könne eine „Strategie“ sein, sich unter den 28 Regulatoren (Datenschutzbehörden der EU-Mitgliedsländer, Anm.) den auszusuchen, der sich in einem „dauerhaften Dämmerschlaf“ befinde. Schrems glaubt aber, dass die irische Datenschutzbehörde in Bedrängnis kommen wird. „Wenn die irische Behörde Däumchen dreht, während die französische schon Strafen austeilt, dann wird sich die Öffentlichkeit ihren Teil denken und der Druck wird steigen, etwas zu tun.“

Grundsätzlich sei die Zustimmung zur Verwendung der Daten in „90 oder sogar 99 Prozent“ der Fälle gar nicht notwendig, betonte der Datenschützer und Facebook-Kritiker. Dies sei schon durch die DSGVO geregelt und werde nur gebraucht, wenn Daten weiterverkauft werden. „Wenn Unternehmen mit den Daten nur das tun, was notwendig ist, dann bräuchte ich weit und breit kein Pop-Up.“ Warum es diese trotzdem gibt? Weil Unternehmen oft viel mehr mit den Daten machten als vorgesehen und weil Juristen Unternehmen teilweise falsch beraten hätten, erklärte Schrems. In Wirklichkeit seien die vielen Pop-Up-Fenster „hauptsächlich Belästigung“.

Er selbst rät: „Trotzdem zustimmen und sich entspannen, weil man weiß, dass die Zustimmung eh ungültig ist.“ Die Dienste seien „extrem hilfreich“, man müsse aber auch „sicherstellen, dass die Unternehmen damit keinen Blödsinn machen.“

Die Organisation noyb hatte im Mai 2018 Beschwerde gegen die Datenschutzbestimmungen – nicht nur von Google, sondern auch von WhatsApp, Facebook, Instagram – in mehreren Ländern geklagt.

Scott Galloway: „Facebook hat eine korrupte Kultur“

Der Bestseller-Autor rechnet damit, dass Sheryl Sandberg Facebook 2019 verlässt. Er nennt geeignete Nachfolger und erklärt, wie es mit Mark Zuckerberg weitergehen sollte.

Die Trends auf der Münchner Digitalkonferenz DLD wandeln sich, doch Scott Galloway ist eine verlässliche Größe. Der schlaksige, kahlköpfige Professor reist jedes Jahr nach München für seine „Vorhersagen“ zur Digitalwirtschaft in dem beginnenden Jahr.

Der 53-Jährige gründete einst selbst E-Commerce- und Beratungsunternehmen, saß in den Boards der New York Times und Urban Outfitters, unterrichtet heute Marketing an der Business School der New York University und schrieb zuletzt den Bestseller „The Four“ über die vier großen Tech-Konzerne Apple, Amazon, Facebook und Google.

Berühmt war Galloway vorher schon für seine provokanten, oft zielgenauen und immer unterhaltsamen Analysen der Geschäftsmodelle der Tech-Konzerne – so unterhaltsam, dass ihn Amazons Technologievorstand Werner Vogels auf eine Nachfrage zu einer von Galloways Thesen als „Stand-up Comedian“ abtut.

Wird Galloway derzeit nach Facebook gefragt, kippt sein ohnehin scharfer Humor ins Sarkastische. Zu Sheryl Sandberg, die auf dem DLD einen Tag vorher ihre Apologie hielt, hat Galloway eine klare Meinung.

Herr Galloway, Sie erwarten, dass Facebook Sheryl Sandberg in diesem Jahr entlassen wird. Warum wurde sie dann jetzt noch einmal auf Reue-Tour nach Deutschland geschickt?

Ich glaube, sie will ihren Ruf retten. Vor zwei Jahren sahen viele sie noch als inspirierendste Frau der Welt, sie hätte die nächste demokratische Präsidentschaftskandidatin werden können. Jetzt taumelt Facebook von einem Skandal in den nächsten und Sandberg wird in die Geschichte eingehen, als jemand, der die Demokratie beschädigt hat. Ich kann mir vorstellen, dass sie irgendwann einfach keinen Bock mehr hat. Sobald Facebook einmal 90 Tage ohne neue Kontroverse ist, wird sie es als ihren Erfolg deklarieren und gehen.

Wann wird das sein?

Gute Frage. Vor ein paar Tagen kam heraus, dass Minderjährige auf Facebook mit den Kreditkarten ihrer Eltern unautorisiert Credits (eine inzwischen wieder abgeschaffte Facebook-Währung, Anm. der Red.) gekauft haben und Facebook sich weigerte, das Geld zurückzuzahlen. Und im Vergleich zu Cambridge Analytica und anderen Skandalen ist das noch eine Kleinigkeit. Wenn Sheryl Sandberg 2019 aber nicht selbst den Absprung schafft, wird das Board sie feuern.

Was würde dann passieren?

Die Aktie würde binnen zehn Tagen um den Wert von General Motors in die Höhe springen. Gemessen an seinem immer noch starken Wachstum ist Facebook aktuell unterbewertet, aber mit dem aktuellen Management traut ihnen keiner die Wende zu. Facebooks Werbegeschäft haben die Skandale nicht geschadet. Was machen die Nutzer, die Facebook löschen? Sie gehen zu Instagram.

Trotzdem wirkt Sandberg wie ein Bauern-, na sagen wir, Damenopfer. Müsste nicht eigentlich Mark Zuckerberg gehen?

Natürlich müsste er das. Weil er das Unternehmen kontrolliert, wäre das etwas schwerer, aber keinesfalls unmöglich. Wenn das Board ihn entließe oder – wahrscheinlicher – gegen seinen Willen auf die Chairman-Position schöbe, könnte er direkt das gesamte Board rausschmeißen. Aber es wäre der Skandal des Jahres. Wen soll er dann ins Board setzen? Seine Schwester und seine Eltern? Dann würden auch Konzerne, die auf Facebook werben, ihre Budgets zurückziehen. Die Aktie würde an einem Tag um 30 Prozent abrauschen.

Wen sollte Facebook als neue COO oder CEO holen?

Sie brauchen eine, die Entscheidungen trifft und exekutieren kann. Ginni Rometty, die Chefin von IBM, ist so eine außergewöhnliche Managerin. Tim Armstrong von Oath versteht digitale Medien. Oder Richard Plepler von HBO. Facebook kann zurzeit wahrscheinlich jeden haben. Die Aufgabe, dort aufzuräumen und dabei sehr reich zu werden, ist doch reizvoll.

Was müsste die Neue machen?

Sie müsste eine neue Kultur etablieren. Facebook hat hervorragende Produkte, aber eine korrupte Kultur. Mark und Sheryl wussten sehr früh, dass ihre Plattform als Waffe eingesetzt werden konnte – sie haben es hingenommen, um noch mehr Wachstum zu generieren. In Myanmar ist Facebook genutzt worden, um einen Völkermord zu orchestrieren. In Indien werden via WhatsApp massenhaft Lügen verbreitet und deswegen wird ein Dutzend Menschen aus ihren Autos gezerrt und gehängt. Die neue COO müsste die Dienste in diesen Ländern sofort abschalten. Nicht zögern, dementieren und verschweigen, bis Facebooks Einfluss nicht mehr zu leugnen ist. Sondern sofort entscheiden. Ab! Schal! Ten!

Stavanger-Erklärung: Warum der Bildschirm dem Papier unterlegen ist

Bildschirme und bedrucktes Papier sind als Lesemedien nicht gleichwertig. Zu diesem Ergebnis kommt eine europäische Forschungsinitiative, die ihre Thesen in der Stavanger-Erklärung zusammengefasst hat. Die Forscher stellen ihre Erkenntnisse vor und geben Empfehlungen zu Mediennutzung und Leseförderung.

Unter dem Namen E-READ (steht für Evolution of Reading in the Age of Digitisation) haben sich mehr als 130 Leseforscher aus Europa zusammengeschlossen, um die Zukunft des Lesens unter dem Einfluss der Digitalisierung zu erforschen. Am 3. und 4. Oktober 2018 trafen sie sich im norwegischen Stavanger, um über die wichtigsten Ergebnisse der vergangenen vier Jahre zu diskutieren. Die Stavanger-Erklärung ist die Zusammenfassung dieses Austauschs. Zentrale Erkenntnis: Wer auf Papier liest, kann sich den Inhalt besser merken.

Die wichtigsten Befunde im Überblick:

  • Die Forschung zeigt, dass Papier weiterhin das bevorzugte Lesemedium für einzelne längere Texte bleiben wird, vor allem, wenn es um ein tieferes Verständnis der Texte und um das Behalten geht. Außerdem ist Papier der beste Träger für das Lesen langer informativer Texte, das Konzentration, den Aufbau eines Wortschatzes und das Gedächtnis trainiert. Daher ist es wichtig, dass das Lesen langer Texte als eine unter mehreren Leseformen bewahrt und gefördert wird.
  • Da das Bildschirmlesen nach Prognose der Wissenschaftler zugleich weiter zunehmen wird, müsse man dringend Möglichkeiten finden, das tiefe Lesen langer Texte in Bildschirmumgebungen zu erleichtern.
  • Wenn die digitale Leseumgebung auf die jeweiligen Leser zugeschnitten ist, führt das zu Vorteilen bei dem Verständnis und der Motivation.
  • Leser digitaler Texte neigen eher zu übersteigertem Vertrauen in ihre Verständnisfähigkeiten als Leser gedruckter Texte. Das führt zu geringerer Konzentration auf den Inhalt des Gelesenen.
  • Das Verständnis langer Informationstexte beim Lesen auf Papier ist besser als beim Bildschirmlesen, insbesondere, wenn die Leser unter Zeitdruck stehen. Das zeigt eine Metastudie von 54 Studien mit zusammen mehr als 170.000 Teilnehmern.
  • Die Unterlegenheit des Bildschirms gegenüber dem Papier hat über die Jahre unabhängig von Alter und Vorerfahrungen eher zu- als abgenommen.

Unter Berücksichtigung der angeführten Befunde gibt E-READ folgende Empfehlungen:

  • Den Schülern und Studenten sollten Strategien aufgezeigt werden, damit ihnen tiefes Lesen auf digitalen Geräten gelingt. Außerdem sollten sie weiter motiviert werden, Lektüre gedruckter Bücher zu lesen.
  • Lehrern und anderen Erziehern sollte bewusst gemacht werden, dass digitale Technologien im Primarbereich nicht folgenlos bleiben.
  • Es müssten geeignete Maßnahmen gefunden werden, um bessere Leitlinien für die Einführung digitaler Technologien zu entwickeln.

Außerdem geben die Wissenschaftler einen Ausblick auf die Forschung in der Zukunft und formulieren Fragen künftiger Forschung:

  • In welchen Lesekontexten und bei welchen Lesern verspricht der Einsatz digitaler Texte den größten Nutzen?
  • In welchen Bereichen des Lernens und literarischen Schreibens sollte das Medium Papier gefördert werden?
  • Macht der tendenziell stärker fragmentierte und weniger konzentrierte Charakter des Bildschirmlesens das Überfliegen zum Standardmodus des Lesens, der dann auch auf das Lesen gedruckter Texte übertragen wird?
  • Wird unsere Anfälligkeit für Fake News, Einseitigkeit und Vorurteile durch übersteigertes Vertrauen in unsere digitalen Lesefähigkeiten verstärkt?
  • Was können wir tun, um eine tiefere Verarbeitung von Texten generell und insbesondere von Bildschirmtexten zu fördern?

Mit dem Thema der Erklärung hat sich auch die Kognitions- und Literaturwissenschaftlerin Maryanne Wolf beschäftigt: Ihr Buch „Schnelles Lesen, langsames Lesen” erscheint im April und erläutert, “warum wir das Bücherlesen nicht verlernen dürfen”. Auch Wolf zieht einen Vergleich zwischen dem digitalen und dem analogen Lesen aus wissenschaftlicher Sicht.

DLD-Konferenz predigt Optimismus, hat aber vor allem eine Bad News: Europa droht Technologie-Wettlauf zu verlieren

Der Facebook -Datenskandal, die Furcht vor Jobverlust durch künstliche Intelligenz oder Hetze und Propaganda im Netz: Die Folgen der Digitalisierung gehören zu den Dingen, die Menschen zunehmend Angst machen. Auf der Innovationskonferenz DLD in München haben Unternehmer, Experten und Wissenschaftler am Wochenende nach Wegen gesucht, neues Vertrauen in die Zukunft zu finden. „Wir wissen, dass wir besser werden müssen“, sagte am Sonntag auch Facebook-Geschäftsführerin Sheryl Sandberg in München.

Alleine in Deutschland glauben nur 26 Prozent der Menschen, dass neue Technologien ihre Zukunft verbessern werden, heißt es in der neusten Studie der Kommunikationsagentur Edelman, die in München in Auszügen vorgestellt wurde. Das Motto der weltweit beachteten DLD-Konferenz 2019 ist “Optimism and Courage” oder zu deutsch “Zuversicht und Mut”. Doch überbrachten viele Rednerinnen vor allem für Europa schlechte Nachrichten. Der Studie zufolge fühlen sich fast 60 Prozent der Arbeitnehmer nicht gut genug ausgebildet, 55 Prozent fürchten, dass ihr Arbeitsplatz durch Automatisierung wegfallen wird.

Und die Furcht scheint in vielen Bereichen nicht unbegründet. Viele Arbeitnehmer müssen sich Deutsche-Post-Chef Frank Appel zufolge darauf einstellen, dass ihre Jobs in absehbarer Zeit von Maschinen übernommen werden könnten. “Ist man jung, gibt es unabhängig davon, welchen Beruf man sich aussucht, keine Garantie, dass er in 10 bis 15 Jahren noch existiert”, sagte Appel auf der DLD. “Es ist definitiv nicht mehr möglich, dass man 50 Jahre lang in einem Unternehmen im selben Job bleiben kann.” Vor allem Systeme auf Basis künstlicher Intelligenz können den Menschen in immer mehr Berufen ablösen. Ein Ausweg sei lebenslanges Lernen – dafür müsse aber das Bildungssystem grundlegend umgestaltet werden.

Das sieht einer der führenden Experten für künstliche Intelligenz genauso. “Aber es gibt auch viele Gründe für Hoffnung”, sagte der KI-Forscher Kai-Fu Lee am Sonntag. So werde die Ausbreitung von künstlicher Intelligenz in der Arbeitswelt bei all ihrer Wucht auch viele Jobs verschonen. In den kommenden 15 Jahren würden zwar viele Arbeitsplätze wegfallen, doch künstliche Intelligenz sei nicht gut in kreativen, strategischen Aufgaben, die Planung oder den Umgang mit Ungewissheit erforderten, betonte Lee. Sie sei eher ein Werkzeug, um auf Datenbasis Aufgaben in einem klar definierten Bereich zu lösen.

“Wenn sie kreativ sind und etwas Neues aufbauen – diese Jobs sind sicher, künstliche Intelligenz kann das nicht.” Sicher seien aber auch Arbeitsplätze, in denen Beziehungen zwischen Menschen im Mittelpunkt stünden. Lehrer, Krankenschwestern, Altenpfleger, Ärzte oder Reiseführer – bei solchen Jobs werde es sogar Zuwächse geben. “Denn künstliche Intelligenz kann nicht Vertrauen, Empathie und Mitgefühl im zwischenmenschlichen Umgang vortäuschen.” Außerdem würden im KI-Umfeld auch ganz neue Arbeitsplätze entstehen. Aus diesen Gründen sehe er keine Gefahr von Massenarbeitslosigkeit – und halte das immer wieder ins Gespräch gebrachte garantierte Mindesteinkommen für eine “schreckliche Idee”.

Allerdings werde das Ringen um die technologische Führerschaft wohl nicht in Europa entschieden. Insgesamt sieht Lee China und die USA in einem Kopf-an-Kopf-Rennen um die Führungsrolle bei künstlicher Intelligenz. Er rechne fest damit, dass chinesische Unternehmen, die heute im Heimatmarkt dominieren, ihre Technologien auch international an den Markt bringen werden, sagte der 57-Jährige, der unter anderem für Apple , Microsoft und Google gearbeitet hatte und jetzt als Investor aktiv ist. Die Gefahr für Europa sei, dass es bei der Dominanz von zwei solch großen Playern, “keine Bronze-Medaille gibt”.

Netflix-Chef: Fortnite ist eine größere Bedrohung als HBO

Im Kampf um die Aufmerksamkeit stellt für den Video-Streaming-Dienst Netflix das Free-to-play Spiel Fortnite eine größere Bedrohung dar als der direkte Konkurrent HBO. Im letzten Quartal hat Netflix nach eigenen Angaben einen Zuwachs von 8,8 Millionen Bezahl-Abos verbucht. Damit brachte es das Unternehmen zum Jahresende 2018 auf gut 139 Millionen bezahlte Mitgliedschaften. Das Spiel Fortnite ist mittlerweile auf über 200 Millionen Spieler angewachsen.

„Wir konkurrieren mit (und verlieren an) Fortnite mehr als mit HBO“, heißt es in einem Aktionärsbrief von Netflix. „Als YouTube im Oktober weltweit für ein paar Minuten nicht erreichbar war, stiegen unserer Zuschauerzahlen und Anmeldungen in diesem Zeitraum an. Tausende von Konkurrenten wetteifern im hochfrequentierten Unterhaltungsmarkt mit niedrigen Zugangshürden und großartigen Erfahrungen um die Verbraucher.“

Fortnite ist zu einem Ort geworden, den man nicht nur zum Spielen aufsucht, sondern an dem man mit Freunden „rumhängen“ kann, schreibt der Tech-Autor Owen Williams. Für Kinder und Jugendliche hat das Spiel und die dort vorhandenen Möglichkeiten frühere Treffpunkte aus der realen Welt ersetzt und in die virtuelle, digitale Welt verschoben. „Fortnite ist nicht nur der neue Treffpunkt, der Einkaufszentren, Starbucks oder das Rumhängen in der Stadt ersetzt, es ist der ‚begehrte dritte Raum‘ für Millionen Menschen in der Welt geworden“, sagt er.

Fortnite ist der erste echte Cross-Plattform-Titel, der auf allen derzeit aktuellen Systemen nutzbar ist. Dazu gehören PC/Mac, PlayStation 4, XBOX ONE, Nintendo Switch, mobile Android- und iOS-Geräte. Neben der Möglichkeit zusammen mit Freunden auf unterschiedlichen Systemen zu spielen, bietet das Spiel einen In-Game-Chat, der Text und Audio unterstützt. Unabhängig vom genutzten System können sich die Spieler jederzeit Nachrichten schicken und unterhalten.

Mit besserem Nutzer-Erlebnis zu mehr Zuschauern

Die als familienfreundliche angegebene Online-Spieleplattform Roblox für Kinder und Teenager ist mit über 70 Millionen Spielern eine ähnliche Bedrohung für Netflix. Dort können sowohl eigene Spiele erstellt und gespielt werden, als auch von anderen Teilnehmern erstellte Inhalte genutzt werden. Je länger sich Spieler in der virtuellen Welt aufhalten, desto weniger Zeit verbringen sie mit Serien und Filmen, von der Netflix laut Quartals-Bericht derzeit etwa 10% der Fernsehbildschirmzeit ausmacht.

Die Zeit in der virtuellen Welt nimmt einen Großteil der Freizeit in Anspruch, da ist sich Netflix-CEO Reed Hastings sicher. Mit „unglaublichen Inhalten“ und ohne Werbeunterbrechungen will er für ein besseres Nutzer-Erlebnis sorgen und gegen Fortnite, YouTube, XBOX und HBO antreten und gewinnen. Mit Black Mirror: Bandersnatch bietet Netflix aktuell neben einem interaktivem Film auch ein passendes Videospiel zum Download an. Wie genau die zukünftigen Inhalte und die damit verbundenen Erlebnisse und Erfahrungen aussehen werden und was sich etablierte und neue Anbieter einfallen lassen, bleibt abzuwarten.

Geld von Google ist nicht die Lösung: Die Presse muss sich durch Kunden finanzieren

Schweizer Verleger wollen Internetriesen mit dem Leistungsschutzrecht zwingen, Geld in ihre Kassen zu spülen. Die Leistungen ihrer Journalisten bieten sie derweil gratis an. Beides ist falsch.

Die generelle Aufmerksamkeit der Gesellschaft für lineares Fernsehen und für Printmedien hat in den letzten Jahren stark nachgelassen und sich auf verschiedene neue Medien verteilt. Während die 14- bis 29-Jährigen 2009 zu 63 Prozent angaben, Tageszeitungen täglich zu nutzen, waren es 2018 noch 16 Prozent (Media-Use-Index 2018). Die Werbung ist dem Trend nachgefolgt: Nahmen die Schweizer Presseverleger 2009 1,9 Milliarden Franken ein und 2007 2,5, waren es 2018 noch 1,1 Milliarden Franken. Gewinner dieses Trends sind die Internet-Plattformen, die internationale Konzerne wie Google oder Facebook betreiben.

Dank Personalisierung liefern sie Inhalte an Leser aus und Werbung gleich noch dazu – und verdienen so im Werbemarkt derzeit viel Geld. Derzeit, denn es ist im rasanten Medienwandel kaum vorhersehbar, welche Firmen in zehn Jahren hohe Einkünfte erzielen werden. Eine Gesetzgebung für diese Fragen ist deshalb zumeist unnötig oder sogar schädlich.

Der Staat soll’s richten

Doch die gute alte Verlegerschaft ist auch nicht anders als andere Branchen, deren Geschäftsmodell infrage gestellt wird. Auch sie greifen zur Brechstange, um den Einbruch ihrer Einkünfte auszugleichen. Ein neues Gesetz soll ihnen garantieren, dass Artikel, die sie aus eigenen freien Stücken frei zugänglich im Internet verfügbar machen, von der neuen Konkurrenz finanziert wird.

Konkret sollen Unternehmen, die Titel solcher Artikel inklusive eines kurzen Anrisses und Link automatisiert zugänglich machen, dafür eine Gebühr bezahlen müssen. Die Argumentation für ein solches „Leistungsschutzrecht“ ist schlicht. Weil es Nutzer gibt, die sich auf einem werbefreien Portal wie Google-News aufhalten, das solche Titel und Anrisse versammelt, soll Google die Urheber der Inhalte vergüten – aus Sicht der Presseverleger sind das die Verlage, nicht etwa die Journalisten.

Die Verlagshäuser fordern diese Vergütungen, obwohl es ihnen jederzeit möglich wäre, das Abgreifen von Inhalten durch Suchmaschinen mit einem einzigen Klick auszuschalten, mit einer Anpassung des Robots Exclusion Standards auf der eigenen Website (robots.txt). Sie machen das aber nicht, weil sie von den Google-Websites eben doch eine erkleckliche Anzahl von Besuchern erhalten, an die sie ihre Inhalte und ihre Werbung ausspielen wollen. Zugleich beklagen sie sich jedoch darüber, dass es Nutzer gibt, die nicht auf die Websites der Verleger weiterklicken, weil ihnen die von Google angezeigten Titel und Leads ausreichen.

Auch wenn Google Inhalte automatisiert verlinkt, ist das Vorgehen selbstverständlich vom Zitatrecht geschützt. Die für eine praktikable Internetsuche unumgänglichen Snippets (Textschnipsel) erreichen nämlich, so sehen das auch die Verleger ein, nicht die sogenannte urheberrechtliche Werkhöhe. Größer ist das Problem hinsichtlich der Medienfreiheit: Die Argumentation der Verleger dürfte irgendwann auf sie zurückfallen und das Zitatrecht im Allgemeinen und somit die Arbeit ihrer Journalisten bedrohen. Denn könnte nicht jeder, der in einer Zeitung zitiert wird, behaupten, die Zeitung verdiene hier Geld mit einer Leistung, die sie nicht selbst erbracht habe? Wer folglich seine Leistung, also die Aussage, mit einem „Leistungsschutzrecht“ schützen will, schickt einfach eine Rechnung an die Zeitung, die das Zitat genutzt hat. Von der Automatisierung abgesehen ist es exakt das gleiche Vorgehen. Es wäre das Ende einer freien Kommunikation.

Blick nach Deutschland

Ein Blick nach Deutschland könnte die Schweizer Verleger besänftigen: Der Axel-Springer-Verlag war der maßgebliche Treiber des 2013 eingeführten deutschen Leistungsschutzrechts. Außer negativen Reaktionen und hohen Rechtskosten hat das neue Gesetz aber bisher nichts gebracht. Google reagierte nämlich darauf mit der Ankündigung, die Angebote der Verlage aus dem Suchmaschinenindex zu streichen. Worauf die deutschen Verleger sofort einknickten und Google „eine widerrufliche Gratiseinwilligung“ – so heißt es im Springer-Geschäftsbericht – „zur Nutzung ihrer Textausschnitte in den Suchergebnissen“ gewährten.

In der Folge veränderte Springer seine Strategie und begann, die Inhalte seiner Produkte „Bild“ und „Welt“ auch im Internet konsequent kostenpflichtig zu machen. Mit Erfolg: Im Oktober 2018 überschritten die beiden Portale gemeinsam erstmals die Marke von 500 000 zahlenden Abonnenten. Der Europäische Gerichtshof (EuGH) wird nächstens darüber entscheiden, ob das Leistungsschutzrecht überhaupt anwendbar ist. Nach Ansicht des zuständigen Generalanwalts ist es das nämlich nicht.

Die Schweizer Verleger hinken der Entwicklung mehrere Jahre hinterher, und sogar das nur mit halber Kraft. Bereits 2010 forderte der Schaffhauser Verleger Norbert Neininger ein Leistungsschutzrecht und nannte darin das Internet einen „rechtsfreien Raum“. 2013 dann sagte der Geschäftsführer des Verbands Schweizer Medien, das Leistungsschutzrecht für Presseverleger sei „kein Thema mehr“ und „nicht das geeignete Mittel“. 2018 holte der Verband Schweizer Medien das untaugliche Mittel wieder aus der Mottenkiste, zuletzt setzte sich Ralph Büchi von Ringier Axel Springer öffentlich dafür ein.

Am liebsten hätten die Herren Verleger natürlich alles: Werbeeinnahmen, Aboeinnahmen und Zahlungen per Gesetz von erfolgreichen Internetfirmen. Nur notwendige Restrukturierungen im eigenen Haus wollen sie keine vornehmen. Norbert Neininger schrieb 2010: „Angeregt durch den schnellen Erfolg einiger Gratiszeitungen und in solider Unkenntnis der Mechanismen des neuen elektronischen Aufmerksamkeitsmarkts, bot man plötzlich alle Inhalte umsonst an.“ Sehr viel weiter gekommen sind die Verlagshäuser auch 2019 nicht. Zwar haben sie in Eigenregie individuelle Bezahlmauern errichtet. Von einer möglicherweise sinnvollen Branchenlösung wie einem einzigen Login für alle privaten Schweizer Medien sind sie aber weit entfernt. Die Verantwortlichen sprechen darüber in Sonntagsreden und bleiben untätig.

Lösungen

Mit Gratisinhalten werden sich im Internet auf lange Frist womöglich nur einige wenige Firmen mit Werbung refinanzieren können. Die Schweizer Verleger sollten vielmehr damit beginnen, konsequent Geld zu verlangen für die eigentliche Leistung, die ihre Journalisten erzeugen, den Journalismus. Hören sie damit auf, gegenüber der Werbewirtschaft zufälligen Traffic zu verkaufen, können sie neu jene klar umrissene Gruppe bewerben, die bereit ist, ein Abonnement zu lösen. Diese zahlenden Leser sind treue, interessierte, aufmerksame Kunden und keine herangespülten Zufallsleser, die sowieso nicht bereit sind, Geld auszugeben.

Die Idee des Leistungsschutzrechts für die schrumpfende Branche von Zeitungsverlegern ist antiliberal und wettbewerbsnegierend, denn es beabsichtigt ein Einkommen per Gesetz: Beiträge sollen frei verschenkt und von neuen Mitspielern der Medienbranche bezahlt werden. Doch in einer freien Marktwirtschaft ist ein Recht auf eine Vergütung von Leistungen fehl am Platz, der Kunde entscheidet selbst. Was, wenn sich jede Branche derart antimarktwirtschaftlich verhalten würde? Immerhin ist das Gesetz als Lobbying-Instrument erfolgreich. Politik und die Konkurrenz werden so auf die eigene schwierige Lage aufmerksam gemacht und um mehr finanzielle Unterstützung gebeten.

Der Verband Schweizer Medien etwa fordert „als Beitrag zur digitalen Transformation“ eine Erhöhung der indirekten Presseförderung um 90 Millionen Franken pro Jahr. Die Politiker sind gut beraten, genau hinzuschauen, ob Fördergelder für Medien der kritischen Öffentlichkeit zugutekommen oder aber der Verhinderung einer echten Transformation der Presseverlage.

Und Geld von Google für Schweizer Zeitungsverlage gibt’s auch ohne Gesetze. Seit 2015 zahlte Google, so rechnete es Republik.ch aus, mindestens 3,3 Millionen Euro an sie, zur Unterstützung verschiedener Projekte.

 

Firefox: Der letzte Mohikaner

Googles Browser Chrome hat bereits einen Marktanteil von 67 Prozent und dominiert das Web. Mozilla versucht mit dem Firefox der Marktmacht von Google Paroli zu bieten. Kann das mit mehr Sicherheit und Datenschutz gelingen?

Browser sind das Tor zum Netz. Wer es beherrscht, besitzt Macht. Kein Wunder, dass Google sehr viel Energie in die Entwicklung seines Browsers Chrome steckt. Und der Markt ist in Bewegung: Nachdem Microsoft Ende des Jahres angekündigt hat, seinen Edge-Browser nicht mehr weiterzuentwickeln, sind Mozillas Firefox und Apples Safari nun die letzten Mohikaner, sprich: Browser mit nennenswertem Marktanteil, die nicht wie jetzt auch Microsoft auf Chromium setzen. Das ist das Browser-Open-Source-Projekt, das zu großen Teilen von Google kontrolliert wird.

Mozilla hat vor gut einem Jahr Firefox Quantum veröffentlicht. Er sollte Chrome wieder Marktanteile abjagen. Dafür hat es Mozilla für seine Verhältnisse ziemlich krachen lassen: 253 Millionen Dollar hat die Stiftung 2017 für die Software-Entwicklung ausgegeben, 66 Millionen Dollar für Marketing. Das Geld floss vor allem in Werbung für den neu aufgelegten Quantum. Die „größte Neuerung seit Firefox 1.0“- wie Mozilla das Update seinerzeit nannte.

Mit einem großen Wurf wollte die gemeinnützige Stiftung wieder an alte Erfolge anknüpfen. Erreichte der Browser, der auf Open-Source setzt, zu seinen Spitzenzeiten vor knapp zehn Jahren noch weltweit Marktanteile von 30 Prozent, waren es Ende 2017 gerade noch zwölf bis 14 Prozent. 60 Prozent Marktanteil hatte dagegen Googles Chrome. Der neue Firefox wollte vor allem mit Schnelligkeit und neuen und verbesserten Privatsphäreneinstellungen punkten und mittelfristig wieder 20 Prozent holen.

Nur noch knapp zehn Prozent

Neuesten Zahlen zufolge kommt Firefox mittlerweile aber nur noch auf knapp zehn Prozent Marktanteil. Unangefochtener Spitzenreiter ist dagegen Googles Chrome mit mehr als 67 Prozent Marktanteil. Hatte Microsoft in den 1990er-Jahren mit dem Internet Explorer noch den sogenannten Browser-Krieg gewonnen und den damaligen Rivalen Netscape Navigator vom Markt gedrängt, ist dem Windows-Konzern nun beim Browser selbst die Entwicklung zu aufwendig geworden. Weshalb man sich in diesem Wettbewerb Google geschlagen gegeben hat.

Was bedeutet nun Googles Dominanz auf dem Browsermarkt? Werden sich im Web nur noch die Standards durchsetzen, die von Chrome unterstützt werden? Ist damit das freie und offene Internet, für das sich Mozilla einsetzt, gefährdet – auch durch Microsofts Entscheidung für den Quasi-Monopolisten Google? Nick Nguyen, Vice President Firefox Product bei Mozilla sagt: „Microsoft hat so die Möglichkeit, die Zukunft des Webs und seine Standards zu gestalten, stark eingeschränkt.“

Mozilla ist nach wie vor auf das Geld von Google angewiesen

Aber das ist dem Microsoft-Konzern offenbar nicht mehr so wichtig. Insgesamt beobachte man in der Techbranche einen Trend zur Konsolidierung, stellt Nguyen fest: Auf Amazon entfallen mittlerweile 50 Prozent aller E-Commerce-Ausgaben, Netflix hat die meisten Menschen als Kunden, die übers Internet Videos auf Abruf gucken. Und Google kommt auf 92 Prozent Marktanteil bei der Internetsuche.

Die EU ist besorgt über diese Ansammlung von Marktmacht. Die EU-Kommission hat Google im vergangenen Sommer eine Strafe in Höhe von 4,3 Milliarden Euro aufgebrummt. Der Grund: Er soll mit seinem Betriebssystem Android seine Marktmacht missbraucht haben. Diese Besorgnis teile man bei Mozilla, sagt Nguyen: Wenn ein einzelnes Unternehmen eine grundlegende Online-Struktur kontrolliere, gefährde das ernsthaft die soziale und gesellschaftliche Kraft des Einzelnen.

Forderungen an die EU hat Nguyen nicht, aber er sagt auch: „Wir bei Mozilla glauben daran, dass die Nutzer eine Auswahl haben sollten und dass das nur Vorteile bringt. Denn das Wohlergehen des Internets hängt an Wettbewerb und Auswahl.“

Das offene Web zu verteidigen ist das erkläre Ziel von Mozilla. Im vergangenen Jahr hat die Stiftung einige neue Firefox-Werkzeuge für Sicherheit und den Schutz der Privatsphäre veröffentlicht. „Container“ etwa ist ein Zusatzprogramm, das Facebook-Nutzer vor Datenmissbrauch schützen soll. Das Add-on „Canvas-Blocker“ soll die Identifizierung des Nutzers anhand digitaler Fingerabdrücke verhindern. Und diese Erweiterungen werden, sagt Nguyen, von den Nutzern auch gut angenommen. Container zum Beispiel sei bereits 1,5 Millionen Mal heruntergeladen worden. Diese erfolgreichen Blocking- und Anti-Tracking-Technologien seien auch dafür verantwortlich, dass Mozillas Browser bei Diensten, die Marktanteile ermitteln, schlecht abschneide. Denn wer im Privatmodus surfe oder spezielle Erweiterungen nutze, werde von den Marktforschern gar nicht erfasst. Nach eigenen Messungen habe man auf dem Desktop weltweit 278 Millionen Nutzer.

Ganz auf Google kann aber auch Mozilla nicht verzichten. Das Suchmaschinenfenster für Firefox wird zumindest in Deutschland standardmäßig vom großen Konkurrenten bespielt. Und dafür gibt es Geld. Nutzer können diese Voreinstellung zwar leicht ändern, viele tun es aber nicht, weil sie nicht wissen, wie das geht. Insgesamt weist der aktuelle Jahresbericht für die Einnahmen aus Partnerschaften mit Suchmaschinen 542 Millionen Dollar aus.

Mozilla will sich aber nach neuen Geldquellen umsehen. So startete die Stiftung im Oktober einen Versuch, ausgewählten Firefox-Nutzern für zehn Dollar pro Monat einen Dienst für das sichere Surfen in öffentlichen Wlans anzubieten. Außerdem arbeitet die Stiftung auch an einer neuen Version von Firefox für Android-Handys. Der Fenix genannte Browser soll auf Handys Boden gutmachen.

Senioren retten das Fernsehen

Möglich, dass das traditionelle Fernsehen das am besten funktionierende Sozialprogramm in ganz Deutschland ist. Die Zahlen von Media Control zur durchschnittlichen Sehdauer pro Tag zeigen einen ungebrochenen Trend zu immer mehr Fernsehzeit bei Menschen über 65 Jahren: Von 287 Minuten im Jahr 2005 gab es einen Anstieg auf 335 Minuten im Jahr 2018. 335 Minuten bedeuten pro Kopf fünf Stunden und 35 Minuten Fernsehen – offenbar eine Beschäftigung, die den Tag zu einem Gutteil ausfüllen kann. Schaut man sich zudem die tägliche TV-Nutzung bei den Deutschen zwischen 50 und 64 Jahren an, ist auch dort eine verstärkte Zuwendung über den Zeitraum zwischen 2005 und 2018 festzuhalten: Von 267 ging es auf 297 Minuten hoch.

Damit sind die Plus-Zahlen bei der Sehdauer schon ausgereizt. In jeder Zielgruppe jünger als 50 Jahre sinkt die Nutzung. Was bei den Deutschen zwischen 40 und 49 Jahren noch relativ moderat ausfällt – ein Minus von sechs Minuten auf täglich 217 Minuten –, nimmt bei den Jüngeren für die Fernsehsender bedrohliche Ausmaße an. An der Spitze liegen dabei die 14- bis 19-Jährigen, die ihren täglichen Fernsehkonsum mit einem Rückgang von 109 Minuten (2005) auf 64 Minuten im Jahr 2018 nahezu halbiert haben. Die wesentlichen Gründe sind in der vermehrten Aufmerksamkeit für Netflix, Amazon & Co. zu suchen. Der Branchendienst meedia.de zitiert in diesem Zusammenhang den ViewTime Report des ProSiebenSat1-Vermarkters, dass bei den 14- bis 29-Jährigen Online-Videos via Youtube und Streams das lineare Fernsehen in wenigen Jahren als Nummer eins beim Bewegtbild abgelöst haben dürften.

Schneidet man die Nutzungszahlen der jüngeren mit den Werten der älteren Fernsehzuschauer gegen, dann können die Programmmacher noch einigermaßen beruhigt sein. Die durchschnittliche Sehdauer aller Deutschen ab drei Jahren liegt 2018 bei 217 Minuten pro Tag, das ist im Vergleich mit 2005 ein Plus von sechs Minuten und im Vergleich mit 2015 ein Minus von sechs Minuten.

Heißt: Einzig und allein das ältere Publikum sorgt für eine gewisse Stabilität. Und weil Deutschland immer älter wird – die Zahl der über 65-Jährigen ist 2018 auf 16,52 Millionen gewachsen (2005 waren es 15,12 Millionen), umgekehrt die Gruppe beispielsweise der 14- bis 19-Jährigen von 5,19 (2005) auf aktuell 4,82 Millionen gesunken ist –, wird das wachsende Volumen der Seniorenhaushalte die gesamte Nutzung weiterhin auf einem hohen Niveau halten können.

Die Auswirkungen sind aber schon spürbar. Nicht nur die ARD-Dritten wirken in ihren Programmschemata konservativ bis erstarrt, das spezielle Angebot für Senioren – Gesundheitsmagazine! – wird noch wachsen. Was auch die Hauptprogramme von ARD und ZDF prägen wird. Sie sind wirklich keine Jugendprogramme, im Gegenteil, jüngere Zuschauer dürfen sich geradezu ausgesperrt fühlen.

Sind da die Angebote der privaten Sender, durchwegs für ein jüngeres Publikum gemacht, die „Rettung“ für das traditionelle Fernsehen? Erkennbar haben die Sendergruppen ProSiebenSat1 mit Sat 1 Gold und RTL mit RTL plus ihre Zielgruppenansprache ins Seniorenalter erweitert. Müssen sie auch, die sinkende Gesamtnutzung trifft auch sie, die ihre Programme mit Werbeeinnahmen finanzieren müssen. Sagen immer mehr Zuschauer unter 50 Jahren dem Medium Adieu, dann wird Fernsehen als Werbemedium unattraktiver. Die Folge sind sinkende Werbepreise und bröckelnde Umsätze.

Erkennbar ist: Die Sender haben auf die verschobene Sehdauer weg von den Jungen und hin zu den Alten noch keine überzeugenden Antworten gefunden. Und ARD und ZDF müssen sich überzeugende Argumente bereitlegen, wenn die Jungen nach Sinn und Gerechtigkeit des Rundfunkbeitrages fragen. Anders gesagt: Im deutschen Fernsehen bildet sich die deutsche Gesellschaft nicht mehr ab.

Halbwahrheiten über Fake-News: Nur eine Minderheit schenkt ihnen Glauben

Auf den digitalisierten Informationsmärkten tummeln sich obskure Akteure. Deren Macht wird jedoch oft überschätzt – auch wegen irreführender Artikel in den Massenmedien.

Kürzlich nannte die deutsche Ausgabe von „Buzzfeed“ die im Jahr 2018 acht erfolgreichsten Falschmeldungen auf Facebook. Den ersten Platz belegt diese Behauptung: „Staat zahlt Harem 7500 Euro im Monat: Syrer lebt jetzt mit zwei Ehefrauen und acht Kindern in Deutschland.“ Verbreitet wurde das Märchen von einer in Russland registrierten Adresse (anonymousnews.ru). Der Beitrag erzielte auf Facebook 148 000 Interaktionen in Form von Likes, Kommentaren und Shares. Gemäß „Buzzfeed“ war diese Performance besser als bei jedem Artikel der führenden deutschen Online-News-Anbieter „Bild“, „Spiegel“ und „Focus“. Nur eine Kolumne der „Süddeutschen Zeitung“ über Seenotrettung im Mittelmeer habe 2018 mehr Interaktionen ausgelöst.

Der „Buzzfeed“-Artikel ist einer unter vielen Beiträgen auch anderer Medien, welche suggerieren, dass sogenannte Fake-News-Artikel eine hohe Durchschlagskraft haben und dass damit unsere Informationswelt erfolgreich durch finstere Kräfte unterwandert wird. Man sollte diese Gefahren nicht verniedlichen, aber es gibt Gründe, sie zu relativieren.

Herbeigeschriebene Impotenz

Teilweise sind es ausgerechnet die Medien selber, welche ihre Impotenz herbeischreiben, indem sie nämlich leichtfüßig mit Zahlen umgehen. Sie servieren den Konsumenten fast täglich phänomenale Zahlen zum Erfolg von Online-Publikationen. Journalisten berichten etwa über Tellerwäscherkarrieren von Teenagern, die via Youtube innert Kürze ein Millionenpublikum gefunden hätten. Beliebt sind auch Anekdoten über Videos, die sich im Internet rasend schnell verbreiten, die millionenfach angeklickt werden und hunderttausendfach ein Herzchen geschenkt erhalten.

Chronisten, die sich mehr fürs Politische interessieren, analysieren wiederum den Aufstieg von Gruppen, die obskure Botschaften verbreiten und über die neuen alternativen Kommunikationswege eine große Gefolgschaft suchen. Als Kennzahl dient zumeist die angebliche Riesenschar von Followern oder Freunden, welche die jeweiligen Akteure auf Twitter und Facebook vereinen. Ein beliebter Beleg ist ferner die Zahl, die angibt, wie oft eine Botschaft von Anhängern weiterverbreitet wurde. Diese Daten muss man nicht lange suchen. Die Plattformbetreiber stellen sie bei jeder digitalen Äußerung bereit – eine praktische Sache für träge Zeitgenossen.

Schein-Zahlen

Alles scheint messbar, die Effizienz der Online-Kommunikation völlig transparent. Doch das stimmt nicht. Es ist längst bekannt, dass man Gefolgschaft günstig einkaufen kann. Der Anteil von Schein-Fans ist bei einigen Plattformen erschreckend hoch, wie Berichte immer wieder aufdecken. Ebenso weiß man um die Existenz von Robotern, welche etwa Tweets massenhaft weiterverbreiten und damit die tatsächliche Resonanz von digitalen Botschaften verfälschen.

Das Publikum erfährt selten, ob die Journalisten die jeweiligen Daten genauer geprüft haben. Aber nicht nur das. Man vermischt Äpfel und Birnen, indem Klicks auf Youtube-Filme zumindest implizit mit den Reichweiten von Fernsehsendungen verglichen werden. Die jeweiligen Daten kommen jedoch völlig unterschiedlich zustande. Die Fernsehbranche richtete Forschungsdienste ein, die jeweils feststellen, wie groß das durchschnittliche Publikum ist, das eine Sendung vollständig anschaute. Diese Angaben beruhen auf repräsentativen Erhebungen.

Die Zahlen von Online-Videos geben hingegen bloß an, wie oft ein solcher Beitrag angeklickt wurde. Offen ist dabei, wie viele Personen das ganze Video anschauten. Zudem bleibt unklar, um was für Personengruppen es sich handelt. Im direkten Vergleich der absoluten Zahlen kommen die Massenmedien also schlechter weg als die Videos auf sozialen Netzwerken. Deren Reichweite wird so überschätzt. Wer es genau nimmt, müsste umso vorsichtiger mit Nutzerzahlen umgehen. Oder gänzlich darauf verzichten.

Überschätzte Fake-News

Es gibt seit längerem Analysen, welche die Bedeutung und den Erfolg sogenannter Fake-News relativieren. Das interessiert nicht zuletzt in Bezug auf die Wahl des amerikanischen Präsidenten. Bereits kurz nach Trumps Sieg publizierten zwei amerikanische Wirtschaftsprofessoren eine erhellende Studie. Unter anderem stützten sie sich auf eine repräsentative Online-Umfrage unter 1200 erwachsenen Bürgern der USA.

Danach waren die Fernsehsender für die Wähler weiterhin die wichtigste Informationsquelle. 57,2 Prozent der Befragten nannten dieses Medium, während bloß 14,8 Prozent Online-News-Anbieter und 13,8 Prozent die sozialen Netzwerke als ihre Hauptquelle bezeichneten. Das ist ein Indiz dafür, dass die vor allem im Internet gestreuten Falschaussagen eine begrenzte Reichweite hatten. Das hat eine im gleichen Zeitraum erschienene US-Studie übrigens bekräftigt: Im Umfeld der Präsidentschaftswahlen machten Fake-News nur 1 Prozent des Konsums der Clinton-Unterstützer und 6 Prozent bei den Trump-Unterstützern aus.

Die Interviewten bekamen zahlreiche Behauptungen vorgelegt und mussten dabei beantworten, ob sie die jeweiligen Aussagen kannten und für wahr hielten. Die Mehrheit bezeichnete die zutreffenden Behauptungen als richtig, während bloß eine Minderheit den Fake-News Glauben schenkte.

Ein Ausschuss des amerikanischen Senats legte Anfang 2018 ein Papier zu der Frage vor, wie groß die Bedeutung von Twitter-Accounts ist, welche Desinformation betreiben und dabei russische Interessen verfolgen. Danach wurden zwischen September und November 2016 – also während der Periode kurz vor dem Wahltermin – insgesamt 2,12 Millionen Tweets von Robotern versendet, die einen russischen Hintergrund hatten und sich mit den Wahlen befassten. Diese machten jedoch nur 1 Prozent aller damaligen Wahl-Tweets aus. Die russischen Tweets entsprachen überdies nur 0,5 Prozent aller wahrgenommenen Tweets („impressions“). Sie waren also unterdurchschnittlich sichtbar.

Nischenplätze für RT und Sputnik

Ähnlich sieht es in Europa aus. Das Reuters Institute in London veröffentlichte im vergangenen April eine Untersuchung, die ebenfalls anzeigt, dass die Wirkung herkömmlicher Medien deutlich stärker ist als jene von alternativen Kanälen. Die Autoren verglichen die Online-Nutzer-Zahlen großer Massenmedien mit jenen von populären Websites mit Falschinformationen. So verzeichnete in Frankreich die Zeitung „Le Figaro“ eine Reichweite von 22,3 Prozent, die Zeitung „Le Monde“ eine solche von 19 Prozent. Unter den „alternativen“ Angeboten mit fragwürdigem Wahrheitsgehalt übersprangen nur vier die 1-Prozent-Marke, unter ihnen die von Russland finanzierten Websites RT mit 1,7 Prozent und Sputnik mit 1,4 Prozent. Die traditionellen Medienanbieter verzeichnen zudem eine längere Verweildauer pro Besuch – auf dem italienischen Markt sind vergleichbare Relationen erkennbar.

Letztlich können derlei Analysen natürlich nicht sagen, welchen Effekt eine gewisse Botschaft auf einen Adressaten hat und wie stark sie dessen Entscheidungen beeinflusst. Aber die Analysen können zeigen, wie stark die Konsumenten einer publizierten Information durchschnittlich ausgesetzt waren. Und da zeigt sich, dass die konventionellen Medien weiterhin eine starke Stellung innehaben.

Der Reuters-Bericht relativiert zudem die Filterblasen-These. Es scheint demnach nicht so, dass sich die Besucher der Nischenkanäle großenteils abkapseln. Vielmehr nutzen sie zu einem guten Teil auch die führenden Massenmedien.

Die seit einem Jahrzehnt kursierende Filterblasen-These bezieht sich auch auf Suchmaschinen. Ihnen wird vorgeworfen, dass sie den jeweiligen Nutzern eine immer einseitigere Auswahl aus dem Informationsmarkt präsentieren, indem sie die Suchergebnisse auf das Verhalten der Nutzer ausrichten.

Eine Untersuchung der Bayerischen Landeszentrale für neue Medien relativiert diese These ebenfalls. Im Vorfeld der Bundestagswahlen verglich sie die Suchergebnisse von 1500 Freiwilligen. Deren Suchergebnisse zu prominenten Politikern wiesen im Wesentlichen sehr hohe Ähnlichkeiten auf. Die durchschnittlichen Abweichungen betrugen nur 1 bis 2 Prozent. Die Suchergebnisse zu Parteien waren etwas weniger ähnlich, was allerdings mit der stärkeren Regionalisierung der Suche erklärbar ist.

Unübersichtlicher Meinungsmarkt

Unbestrittenermaßen ist der Kampf um Meinungsmacht im Internet-Zeitalter unübersichtlicher geworden. Bisher hatten die Massenmedien die Fäden fast unangefochten in der Hand. Nun drängen neue Akteure auf den Markt. Nicht zuletzt jene, die sich von den alten Machthabern schlecht behandelt fühlen. Dank den neuen Technologien sind sie in der Lage, ihre Botschaften im Originalton zu verkünden, schnell und effizient, und das erst noch zu relativ tiefen Kosten.

Derzeit finden vor allem die Initiativen der Akteure im rechten politischen Spektrum die Aufmerksamkeit der Zeitkritiker. Im nördlichen Europa ist es diesen Akteuren aber kaum gelungen, ins Innere der etablierten Medien vorzudringen. Entsprechend konzentrieren sie sich auf alternative Kanäle auf sozialen Netzwerken und ähnlichen digitalen Plattformen. Einige Wortführer schafften es offenbar, eine große Anhängerschaft zu finden. Doch wie gesagt, man muss die teilweise eindrücklichen Resultate in Form von Likes, Kommentaren und Gratisabonnenten mit Vorsicht zur Kenntnis nehmen. Die alternativen Stimmen operieren großenteils in Nischen. Freilich schaffen sie es in Ausnahmefällen, eine Breitenwirkung zu erzeugen – meist dann, wenn die klassischen Medien ihre Themen aufgreifen. Nur diese sind in der Lage, kontinuierlich hohe Reichweiten zu erzeugen.

Machtgefälle

Ein Vergleich der Ressourcen offenbart das Machtgefälle. Während die Massenmedien Dutzende, wenn nicht Hunderte Personen beschäftigen, operieren auf den alternativen Plattformen zumeist bloß eine Handvoll von Enthusiasten und Überzeugungstätern. Ihnen gelingen bloß punktuelle Eingriffe in den Meinungsmarkt. In der Regel können sie höchstens auf ihre Fangemeinde zählen.

Dank den digitalen Techniken ist ihre Kritik indessen bedeutend sichtbarer geworden. Virale, sich selbst verstärkende Effekte ihrer Interventionen sind jederzeit möglich. Das setzt die wortführenden Medien zuweilen unter Zugzwang. Insofern vermögen die Alternativen auf indirektem Weg die Produktion der Etablierten zu beeinflussen. Die Medienagenda hat sich denn auch in den vergangenen Jahren verändert, nicht zuletzt hinsichtlich der Migration, der Sicherheit und der Identitätspolitik. Dieser Wandel reflektiert aber nicht nur die Herausforderung der neuen Online-Stimmen, sondern ebenso die Wahl- und Abstimmungsresultate.

Der faule Hering

Auch wenn die alternativen Akteure, zu denen auch die Kräfte der Desinformation zählen, ein Nischendasein führen, ist ihr Engagement durchaus rational. Gerade in Zeiten der Polarisierung genügt es im Kampf um politische Macht manchmal, eine verhältnismäßig kleine Zahl der Bürgerschaft umzustimmen, um ein erwünschtes Resultat zu erzielen. In diesem Sinn sind Fake-News durchaus gefährlich.

Die Methode ist im Kern nicht neu. Ein russischer Journalist erinnerte kürzlich an eine sowjetische Taktik der Propaganda, die sich „fauler Hering“ nennt: Man beschuldigt einen Missliebigen, eine abscheuliche Tat begangen zu haben, ohne den Vorwurf zu beweisen. Dessen Unhaltbarkeit soll gerade dazu dienen, in der Öffentlichkeit eine Gegenwehr zu provozieren. Dies allerdings mit dem Effekt, dass am Beschuldigten durch den öffentlichen Aufruhr doch etwas hängenbleibt: der Geruch des faulen Herings.

Selbstkritik nötig

Zurück zu den Massenmedien: Ihre Macht ist also weiterhin erheblich, aber sie bröckelt angesichts der digitalen Revolution, welche die ökonomische Basis des Journalismus gefährdet. Für die Krise gibt es auch hauseigene Gründe. Die Medien ziehen ihre Legitimation aus dem Anspruch, möglichst wahrheitsgemäß über die Aktualitäten und deren Hintergründe zu informieren. Sie entwickelten entsprechende Handwerksregeln und Arbeitsroutinen, die sie von denen anderer publizistischer Akteure unterscheiden. Die Kluft zwischen Ideal und Realität ist aber öfter deutlich. Und da geht es wiederum um die Frage der Glaubwürdigkeit. Wenn die Medien diese bewahren wollen, müssen sie ihre Leitlinien ernster nehmen.

Was ist der Auftrag der Europäischen Rundfunkunion?

Öffentlicher Rundfunk ist wichtiger denn je. Er bringt Europas Kultur zum Vorschein, hält die Gesellschaft zusammen und ist ein Leuchtturm in einer Welt voller Fake News.

In diesem Monat übernehmen wir mit großer Freude die Präsidentschaft der European Broadcasting Union (EBU). In ihr haben sich 119 öffentlich-rechtliche Rundfunkanstalten aus 56 Ländern zusammengeschlossen, die, individuell und kollektiv, einen wichtigen Beitrag zum demokratischen, kulturellen und gesellschaftlichen Leben in Europa leisten.

Öffentlich-rechtliche Rundfunkanstalten sind einzigartig in der modernen Medienlandschaft. Wir treffen Entscheidungen ausschließlich zum Wohle der Nutzer, unabhängig von kommerziellen oder finanziellen Erwägungen. In der sich rasant wandelnden Welt von heute wird das immer wichtiger.

Erstens sind die öffentlich-rechtlichen Sender auf einzigartige Weise imstande und verpflichtet, unsere Kultur zum Ausdruck zu bringen. Wir wissen, dass Zuschauer faszinierende neue Produktionen aus der ganzen Welt sehen wollen, wissen aber auch, dass sie ihre eigene Lebenswirklichkeit auf dem Bildschirm oder im Radio repräsentiert sehen wollen. Sie sind an Sendungen interessiert, die sich mit einigen der drängendsten Fragen in ihrer Gesellschaft beschäftigen.

Es ist daher wichtig, Auswahl nicht mit Vielfalt zu verwechseln. Es mag immer mehr angebotene Inhalte geben, doch diese Inhalte sind in immer geringerem Maß wirklich unabhängig und haben mit dem Leben der Menschen und ihrem gesellschaftlichen Umfeld immer weniger zu tun. Allein in Europa investieren öffentlich-rechtliche Rundfunkanstalten jährlich mehr als 18 Milliarden Euro in lokale Inhalte. Davon entfallen über 80 Prozent auf Originalproduktionen. Und wir wissen, dass dort, wo die Finanzierung der öffentlich-rechtlichen Sender eingefroren oder gekürzt wird, diese Lücke nicht durch andere Investitionen geschlossen wird. Als Förderung lokaler Ideen und Talente ist dies nicht nur für die heimische Kreativbranche von großem Wert. Es ist auch wesentlich für die kulturelle Entwicklung und die Gestaltung unserer nationalen Identitäten.

Zweitens kommt dem öffentlich-rechtlichen Rundfunk eine wichtige Rolle zu, weil er Menschen zusammenbringt. Im vergangenen Jahr veröffentlichte die BBC die Ergebnisse einer weltweiten Umfrage, aus der hervorging, dass mehr als drei Viertel der Befragten ihr Land als gespalten ansehen und mit der Verschärfung dieser Situation rechnen. Tatsächlich haben viele von uns den Eindruck, dass die Gesellschaft, in der wir leben, so gespalten ist wie nie zuvor.

Damit wird die universale Aufgabe der öffentlichen Rundfunkanstalten umso wichtiger und relevanter. Es ist unsere Pflicht, jeden Einzelnen anzusprechen, allen Stimmen Ausdruck zu geben und zu einem Verständnis der gesellschaftlichen Gruppen untereinander beizutragen. Deswegen bieten die EBU-Mitglieder Dienste in mehr als 160 Sprachen an, mehr als 260 Programme, die sich an sprachliche, ethnische oder religiöse Minderheiten wenden, sowie 226 Programme für Kinder und Jugendliche.

Und drittens ist der öffentlich-rechtliche Rundfunk ein wesentlicher Leuchtturm des Vertrauens in einer Welt voller Fake News. Nutzer haben heutzutage Zugang zu mehr Nachrichten und Informationen denn je, aber ironischerweise wird es immer schwieriger für sie, Nachrichten und Informationen zu finden, von denen sie wissen, dass sie zuverlässig sind. Das ist wichtig, weil Demokratie davon abhängig ist. Eine Demokratie, in der es keinen Zugang zu zuverlässigen Informationen gibt, ist eine geschwächte Demokratie. Deshalb sind die Grundprinzipien von Genauigkeit und Unabhängigkeit, denen sich die öffentlich-rechtlichen Rundfunkanstalten verpflichtet fühlen, immer wertvoller geworden. Dass wir für gründliche Berichterstattung eintreten und unermüdlich nach der Wahrheit fragen, ist wichtiger denn je.

Selbstverständlich sind alle öffentlichen Sender heutzutage mit realen Herausforderungen konfrontiert. Die Branche steht unter erheblichem Druck, ob konkurrenzbedingt, finanziell oder politisch. Wir glauben aber, dass die wachsende Bedeutung der öffentlich-rechtlichen Sender mit ihrem einzigartigen Angebot in der modernen Welt zugleich eine große Chance ist.

Gemeinsam mit allen EBU-Mitgliedern sind wir entschlossen, für die bedeutsame Mission der öffentlich-rechtlichen Rundfunkanstalten in Europa in einer kritischen Zeit einzutreten. Das heißt, für all das zu kämpfen, was erforderlich ist, damit wir auch künftig zum Nutzen aller Hörer arbeiten können: für einen umfassenden und aktuellen Auftrag, damit wir weiterhin jedermann erreichen können – auch online. Für Chancengleichheit, damit wir innovations- und konkurrenzfähig bleiben. Für eine angemessene und stabile Finanzierung, damit unsere Unabhängigkeit gewährleistet und unsere Zukunft gesichert ist. Wir sind entschlossen, diese Gelegenheit zu nutzen und eine neue Ära der Zusammenarbeit zu schmieden. All jene, die sich zu den Grundsätzen des öffentlich-rechtlichen Rundfunks bekennen, müssen künftig noch enger kooperieren und dafür sorgen, dass die Bürger in einer sich wandelnden Medienwelt weiterhin eine reale Wahl haben.

Rund 1000 Digitalwährungen sind schon klinisch tot

2017 sprossen Kryptowährungen wie Pilze aus dem Boden. 2018 brachen die Märkte ein. Viele Coins wurden aufgegeben. Jeder fünfte davon war Betrug. Eine ganze Reihe kaum mehr als ein Witz.

Nun, im Januar 2019, summiert sich ihre Zahl auf rund 1000 Blockchain-Projekte, die seither gescheitert sind oder aufgegeben wurden. Angesichts von rund 2100 Kryptowährungen, die Coinmarketcap derzeit noch als lebendig einstuft, sind 1000 eine Menge.

Während die großen Währungen wie Bitcoin und Ethereum rund 80 bis 90 Prozent ihres Werts seit dem Höhepunkt Ende 2017 verloren haben, sind viele alternative Coins, die in der Euphorie 2017 gestartet wurden, nach einer Zählung von Deadcoins.com mittlerweile klinisch tot. Das heißt, sie existieren noch, aber in geringem Maße.

Vodkacoin und Jesus-Coins sind tot

Knapp 73 Prozent dieser 1000 Coins wurden demnach von Börsen ausgelistet, weisen kein Handelsvolumen oder Nodes mehr auf oder wurden von ihren Entwicklern wegen finanziellem Misserfolg schlicht aufgegeben. Knapp 20 Prozent der toten Coins haben sich im Nachhinein als Betrug herausgestellt. Gut ein Prozent starb wegen eines Hackerangriffs den Kryptotod.

Daneben gibt es eine ganze Reihe an Projekten, die kaum mehr als ein Witz waren. Vodkacoin, Projekte wie der TheresaMay- und der SilvioBerlusCoin, der Useless Ethereum und der AssToken, sowie der Boringcoin, der Crapcoin und mehrere Jesus-Coins wurden nur zu dem Zweck geschaffen, um sich über die Gier am Kryptomarkt lustig zu machen.

Sie machen gut sechs Prozent der bisher aufgegebenen Währungen aus. Scheinbar war nicht jeder Witz ein Kracher. Dabei gibt es mit Dogecoin eine Parodiewährung, die überaus erfolgreich ist.

Die Lust der Kleinanleger, in allerlei seltsame Kryptoprojekte zu investieren, ging sogar so weit, dass selbst die sonst eher humorbefreite US-Börsenaufsicht SEC einen Parodie-Coin startete: den HoweyCoin.

Bis heute wirbt die Webseite mit Champagner- und Karibikstrandfotos für ein Investment in den Token, der die Tourismus-Branche verändern soll. Wer jedoch auf den „Kaufen“-Button klickt, wird auf eine Seite der SEC weitergeleitet und bekommt dort in Sachen Investorenbetrug die Leviten gelesen.

Auch mit Savedroids Token handelt kaum jemand

Dabei gab es so einige spektakuläre Kryptopleiten, die Investoren hätten abschrecken sollen. Einer der bekanntesten Coins, die auch in der Statistik der gescheiterten Token auftaucht, ist Bitconnect. Täglich ein Prozent Rendite versprach das Projekt, erwirtschaften sollte das Kapital ein Trading-Bot.

Dass solche Gewinne nur aus den Investments neuer Kunden zu stemmen sind, warnten Experten bereits sehr früh. Die US-Aufsicht zerschlug Bitconnect vor einem Jahr. Dabei rutschte der Kurs von über 400 auf weniger als einen Euro. Mittlerweile ist der Betrüger-Token von allen zentralen Börsen ausgelistet und dümpelt in der Bedeutungslosigkeit.

Aber auch in Deutschland gibt es mit dem Savedroid-Token und Swisscoin Kryptowährungen, deren tägliche Handelsvolumen laut Coinmarketcap nahe null rangieren. Andere wie das ebenfalls deutsche Lisk mussten 2018 zwar erhebliche Kursrückgänge verzeichnen, weisen jedoch noch immer tägliche Handelsvolumina im Millionenbereich auf.

Wie Technologiekonzerne die Stadt optimieren wollen

Laut einer Verkehrsstudie des Informationsdienstes Inrix entstehen allein in den USA durch Staus volkswirtschaftliche Schäden in Höhe von 305 Milliarden Dollar. Das entspricht etwa dem Bruttoinlandsprodukt von Finnland. Die Staubilanz des ADAC ist nicht erbaulicher: 457 000 Stunden, umgerechnet 52 Lebensjahre, verbrachten Verkehrsteilnehmer 2017 im Stau.

Es verwundert nicht, dass dieser (politische) Immobilismus Tech-Konzerne auf den Plan ruft, nach dem Leitsatz „move fast and break things“ die Blockade aufzuheben und neue Mobilitätslösungen zu erproben. Amazon testet den Einsatz von Lieferdrohnen. Tesla-Chef Elon Musk plant, zwei Tunnel zwischen dem Flughafen O’Hare und Chicago zu bohren. Und Uber will ab 2023 mit seinem Dienst „Uber Air“ mit Lufttaxis die Staus in Los Angeles und Dallas überfliegen. Die Technik-Visionäre inszenieren sich als Macher, die hemdsärmelig Probleme anpacken, während die Politik noch über Regulierung diskutiert.

Die libertären Entrepreneure aus dem Silicon Valley sind schon länger der Ansicht, dass der Staat mit seinem tradierten Werkzeugkasten von Verwaltungsakten und Gesetzen nicht mehr auf die Herausforderungen einer datengetriebenen Gesellschaft antworten könne. Der Staat ist in ihren Augen eine alte Hardware, die mit einer neuen Software „upgedatet“ werden müsse.

Im technischen Staat herrscht keiner, es läuft nur noch eine Apparatur, die bedient sein will

Google-Gründer Larry Page beklagte 2013, dass er nicht das richtige „Interface“ für die Regierung finde. „Alte Institutionen wie das Gesetz“ würden nicht mehr mit der Geschwindigkeit mithalten, die durch den technologischen Wandel verursacht wurde. „Als wir an die Börse gingen, waren die Gesetze 50 Jahre alt. Ein Gesetz kann nicht richtig sein, wenn es 50 Jahre alt ist.“ Das klang wie ein neo-schmittianisches Diktum, dem Staat die Legitimation abzusprechen. Page entwarf die Vision eines techno-libertären Utopias, in dem sich soziale Experimente durchführen lassen. „Ich denke, als Technologisten sollten wir ein paar sichere Orte haben, an denen wir neue Dinge ausprobieren und herausfinden können, was die Effekte auf die Gesellschaft sind (…).“ Wozu braucht man Gesetze, wenn es Code gibt?

Die Google-Tochter Sidewalk Labs plant, in Toronto eine datengetriebene Modellstadt zu errichten, in der sich Roboterfahrzeuge die Straßen mit Radfahrern und Fußgängern teilen und Bürger zwischen begrünten Holzhäusern flanieren. Eine Art Raum gewordene Hippie-Utopie, wie sie Ernest Callenbach in seinem Roman „Ecotopia“ aus dem Jahr 1975 beschrieb. Die Idee, eine Idealstadt auf dem Reißbrett neu zu entwerfen und vom Internet zu denken, hat gewiss ihren Reiz. Doch was als Rückeroberung des öffentlichen Raums verkauft wird, ist in Wahrheit nur eine Privatisierung desselben. Es geht bei diesen Techno-Utopien darum, das Staatswesen umzuprogrammieren.

Der Technologiekonzern IBM, einer der Hauptakteure der globalen Smart-City-Agenda, hat unlängst das Konzept des „Cognitive Government“ entwickelt. „Regierungsverantwortliche“, heißt es in dem Strategiepapier, „müssen viele Variablen berücksichtigen und abwägen, wenn sie die Mission unternehmen, das Leben der Bürger zu verbessern. (…) In der heutigen wissensbasierten, datengetriebenen Wirtschaft benötigen Regierungen die Fähigkeit zu verstehen, was die Trends und Vorhersageindikatoren in kritischen Systemen wie Arbeitsmarkt, öffentlicher Gesundheit, Bildung, Finanzmärkte, öffentlicher Sicherheit, Verkehr und natürlicher Ressourcen sind.“

Datentsunamis sollen zu Wellen schrumpfen

Mit Maschinenlernen, künstlicher Intelligenz und Robotik soll staatliches Handeln aktualisiert werden. Der IBM-Entwickler Marquis Cabrera beschrieb die neue Machttechnik so: Kognitives Regieren erlaube den Verantwortlichen, bessere Entscheidungen zu treffen, indem „Datentsunamis zu Wellen“ reduziert und aus den Datenanalysen Einsichten in den Gesellschaftskörper gewonnen werden könnten. „Lasst uns das Regieren neu erfinden. KI kann helfen“, lautet der kühne Leitsatz.

Zu den Regierungstechnologien, die IBM an Behörden verkauft, gehören unter anderem cloudbasierte Wetterdaten-Dienste, Statistik-Tools fürs Militär sowie Videoanalytics-Systeme. Eine KI-gestützte Ampelschaltung könnte zum Beispiel Signale aus Videokameras auswerten und per automatisierter Verkehrsüberwachung „Objekte“ wie Autos, Fußgänger, Fahrradfahrer und Tiere erkennen, um bestimmte Bewegungsmuster zu identifizieren. Die Ampelschaltung würde nicht mehr statisch programmiert – das intelligente System würde die Ampelphasen dynamisch an das Verkehrsaufkommen anpassen. Der Verkehrsfluss würde optimiert, Staus reduziert, der Fußgänger müsste nicht mehr fünf Minuten bei Rot an der Kreuzung warten. Das klingt ziemlich smart. Doch damit ein solches System funktioniert, müssen zahlreiche Sensoren und Kameras im urbanen Raum installiert werden. Wenn, wie in der IBM-Produktpräsentation, die KI visuelle Anhaltspunkte wie Hundeaugen, Gehstöcke und Rollstühle erkennen kann, fragt man sich, was das System sonst noch alles sieht (Zigaretten, Bierflaschen, Waffen, Kennzeichen?), und wie das mit dem Datenschutz zu vereinbaren ist.

Was an diesem Governance-Konzept irritiert, ist die Tatsache, dass die Gesellschaft als Datenverarbeitungssystem modelliert wird und Städte nur von einer neoliberalen Seite der Optimierung gedacht werden. Die Modelle unterstellen, dass maschinelles Lernen effektiver als politische Lernprozesse und Verwaltungshandeln eine Technik von gestern sei. Mithilfe von Sensoren könne man die Stadtgesellschaft viel effektiver regulieren, raunt man sich auf Smart-City-Konferenzen zu. Städte werden nicht mehr regiert, sondern „gemanagt“. Dass mit der Installation eines kybernetischen Regelkreislaufs Programmierer Sollgrößen implementieren und der Souverän entmachtet wird, ist die Kehrseite der Medaille. Regieren droht zur Prozesssteuerung zu verkommen.

Lösungsorientierte Systeme laufen ins Leere, wo Probleme falsch codiert sind

Die Stadt Boston hat unter ihrem digitalaffinen Bürgermeister Martin J. Walsh einen „City Score“ eingeführt, auf dem das Wohlergehen der Stadt in einer Zahl ausgedrückt wird. 1,25 ist ein guter Wert, alles was unter 1 liegt, Grund zur Besorgnis. Der Score berechnet sich nach der „Performanz“ der Stadt: Reaktionszeit der Notrufzentrale, Bibliotheksnutzung, Müll, Schlaglöcher, Stau. Auf der Webseite können die Bürger den aktuellen Wert für den jeweiligen Tag einsehen. Es gibt sogar einen „Trend“ für Schießereien und Messerstechereien.

Diese börsenähnliche Darstellung der Stadtgesellschaft führt dazu, dass Verantwortliche nur noch in Zahlen denken. „Wir leben in einer 1,25-Welt“, sagte Walshs ehemaliger Büroleiter Daniel Koh einmal. Die Stadt macht einen mathematischen Wert zum Maßstab der Politik. Das heißt, nur was in Daten ausgedrückt werden kann, wird überhaupt auf die Agenda gesetzt und politisch bearbeitet. Was nicht gemessen wird, erscheint auch nicht auf den Bildschirmen und ist nicht politisierungsfähig. Es kann noch so viel Verkehr geben, solange der Wert 1 + x ist, besteht kein Handlungsbedarf. Regieren nach Zahlen.

Der Soziologe Helmut Schelsky entwickelte in seinem Aufsatz „Der Mensch in der wissenschaftlichen Zivilisation“ (1961) die These vom Ende der Herrschaft durch die Technik: Die Politiker im „technischen Staat“ agieren nicht mehr als „Entscheider“, sondern als „Analytiker, Konstrukteur, Planender, Verwirklichender“. Die Politiker werden zu einer Art Maschinist in einer gut geölten Politmaschine, die nur noch an Stellschrauben und Ventilen drehen. Schelsky beobachtete schon in den Sechzigerjahren eine „Tendenz zu einer Minimalisierung der politischen Entscheidungen“: „Je besser die Technik und Wissenschaft, umso geringer der Spielraum politischer Entscheidung.“ „Wird aber die politische Entscheidung zu einem geradezu wissenschaftlich deduzierbaren Sachzwang, dann gerät der Politiker in die Situation eines bloß ausführenden Organs.“ Im technischen Staat herrsche niemand mehr. Es laufe nur noch eine „Apparatur, die sachgemäß bedient sein will“.

Auch in hoch technisierten Systemen wie smarten Städten geht es letztlich darum, die Parameter für einen bestimmten „Policy-Output“ einzustellen. Die Stadtverwaltung hat aber nicht deshalb weniger Einfluss, weil immer mehr Prozesse automatisiert ablaufen, sondern die Entscheidungsmodi einem Determinismus gehorchen, der in seinem Kern unpolitisch ist.

Man darf bezweifeln, ob ein KI-System das Stauproblem in Städten „lösen“ wird. Es geht nicht darum, Probleme wie Variablen in einer Gleichung „zu lösen“ (die Bundesregierung scheint den solutionistischen Imperativ der „Problemlösung“ in ihrer Agenda aufgenommen zu haben), sondern darum, Probleme erst mal zu benennen. Was ist eigentlich das Stauproblem? Zu viele Autos? Zu wenige Straßen? Oder unnötige Mobilität? Der Algorithmus wird auf diese Fragen keine Antwort haben. Lösungsorientierte Systeme laufen ins Leere, wo Probleme falsch codiert sind. Das aber ist die Aufgabe von Politik. Insofern haben auch vermeintlich tradierte Regierungstechnologien noch lange nicht ausgedient.

Döpfner: Entfremdung zwischen Lesern und journalistischen Angeboten

Laut Mathias Döpfner, Präsident der Zeitungsverleger, sind deutsche Printmedien mit einer wachsenden Entfremdung zwischen Lesern und Redaktionen konfrontiert. Dabei sei nicht die Digitalisierung, sondern eine intellektuelle und inhaltliche Krise des Journalismus das Problem.

Printmedien in Deutschland müssen sich nach den Worten des Präsidenten der Zeitungsverleger, Mathias Döpfner, einer wachsenden Entfremdung zwischen Lesern und Redaktionen stellen – und das nicht erst als Folge des Fälschungsskandals beim „Spiegel“. Nicht die Digitalisierung sei das Problem von Zeitungen und Zeitschriften, sondern eine sich seit Jahren hinziehende intellektuelle und inhaltliche Krise des Journalismus.

Springer-Vorstandschef Döpfner äußerte im Interview mit der Deutschen Presse-Agentur Zweifel am Auftritt von Journalisten auf Twitter und FacebookProgrammatic Advertising verbindet Datenanalyse und Marketing. Er empfehle größte Zurückhaltung, wenn nicht gar totale Enthaltsamkeit.
Die Branche müsse mit einer „Lebenslüge“ aufräumen, sagte Döpfner. „Dass die vielbeschworene Zeitungskrise durch technologischen Wandel verursacht ist. Das stimmt nicht, das ist ein Alibi. „Vielerorts habe sich Selbstzufriedenheit und Überheblichkeit breitgemacht.

„Ich will nicht verallgemeinern, das gilt niemals für alle“, sagte der Präsident des Bundesverbands Deutscher Zeitungsverleger (BDZV). „Aber leider haben sich entsprechende Geisteshaltungen in ganz verschiedenen VerlagenProgrammatic Advertising verbindet Datenanalyse und Marketing und Redaktionen eingenistet und dazu geführt, dass es zu einer tiefen Entfremdung zwischen Leserinnen und Lesern und den journalistischen Angeboten gekommen ist.“ Das bedeute nicht, den Lesern nach dem Mund zu reden, aber genauer zu wissen, was wen wie interessiere.

Brief an die Verleger

In einem Brief an die Verleger zum neuen Jahr ermutigte Döpfner am Montag die BDZV-Mitglieder, sich 2019 auf ihre Kernaufgaben zu besinnen und sich die Glaubwürdigkeit wieder zu verdienen. „Denn nur so können wir die Populisten und Feinde der Pressefreiheit in ihre Schranken weisen. Auch nach dem Fälschungsskandal um den früheren „Spiegel“-Reporter Claas Relotius werde man sich nicht als „Lügenpresse“ verunglimpfen lassen.

„Das Problem, dass einstweilen aus dem „Sturmgeschütz der Demokratie“ ein „Luftgewehr der Fantasie“ geworden ist, das muss der „Spiegel“ lösen“, sagte Döpfner im Interview. Dafür habe das Blatt gute Chancen mit seinem neuen, unbelasteten Chefredakteur. Eine ähnliche Einstellung wie beim „Spiegel“ herrsche in vielen Redaktionen und Jurys für Reporterpreise. „Haltung ist oft wichtiger als Handwerk, Weltanschauung wichtiger als Anschauung“.

Social-Media-Auftritte von Journalisten

So erscheine ihm auch der Auftritt von Journalisten in sozialen Medien „zunehmend problematisch“. Die Vorstellung, dass Medienvertreter rein privat twittern oder auf Facebook posten, sei absurd, kein Mensch könne das unterscheiden. „Ein Chefredakteur oder Redakteur ist dort keine private Person.“ Journalisten hätten ja eine gute PlattformDatenanalyse und Marketing, um sich auszudrücken: „Ihr Medium.“ Warum sollten sie ihre Erkenntnisse, Gedanken und Inhalte verschenken, um Twitter zu Exklusivnachrichten oder Kurzkommentaren verhelfen, fragte Döpfner.

Auch die jüngste Twitter-Aktion #Nazisraus in Richtung AfD sei „höchst problematisch“. Der Hashtag sei ein Zeichen für die zunehmende Unfähigkeit, durch Argumente eine Partei zu entzaubern, die außer Zorn und Ressentiment nicht viel zu bieten habe. „Journalisten sollten dafür besonders sensibilisiert sein.“ Solche Statements förderten ein intolerantes Meinungsklima und eine intellektuelle Unfähigkeit, mit anderen Meinungen und unterschiedlichen Auffassungen weltoffen und zivilisiert umzugehen. Er habe kein Verständnis, wenn sich Journalisten damit selber stilisierten.

Fälschungsskandal beim „Spiegel“

Döpfner warnte davor, nach der Affäre um den Fälschungsskandal beim „Spiegel“ schnell zur Tagesordnung überzugehen. Viele Medien gingen „erstaunlich zurückhaltend“ mit dem Fall um. Offensichtlich wirke das Argument, dass Relotius auch in anderen Publikationen veröffentlicht habe, wie eine Beißhemmung. Der Fall sei vor allem auf Medienseiten und im Feuilleton abgehandelt worden. Wenn jetzt die Medienbranche aber weggucke, schade das der Glaubwürdigkeit der Medien. „Es steht hier also sehr viel auf dem Spiel“, sagte der BDZV-Präsident.

In seinem Brief an die Verleger nannte Döpfner die Sicherung des Zustellernetzes als ein wichtiges Verbandsziel für 2019. Durch staatliche Entscheidungen sei nicht mehr gesichert, dass morgens in jedem Briefkasten eine Zeitung landet. Es dürften in Deutschland aber keine weiße Flecken bei der Zustellung entstehen, die Döpfner einen „nicht zu unterschätzenden Demokratieverstärker nannte.“

GIS-Volksbegehren: SPÖ und Jetzt verteidigen Rundfunkgebühr

Das Volksbegehren gegen die GIS-Gebühren beschäftigte den Verfassungsausschuss des Nationalrats. So stellten sich im Ausschuss nur SPÖ und Liste Jetzt – und ORF-General Alexander Wrabetz – hinter das bestehende Finanzierungsmodell über Rundfunkgebühren. Wrabetz sieht Rundfunkgebühren als vorherrschendes Finanzierungsmodell in Europa.

FPÖ sucht „Alternativen“ zur GIS „Alternativen“ zum Gebührenmodell wünscht sich FPÖ-Mediensprecher Hans-Jörg Jenewein. Er verweist auf europäische Länder, die Rundfunkgebühren abgeschafft haben und ihre Sender aus dem Staatsbudget oder über spezielle Steuern oder Steueranteile finanzieren.

Neos-Mediensprecherin Claudia Gamon wiederholte die Forderung ihrer Partei nach einem alternativen Finanzierungsmodell für den ORF. Neos-Konzepte sahen insbesondere die Förderung öffentlich-rechtlicher Inhalte vor – unabhängig vom Produzenten oder Sender.

SPÖ und Jetzt verteidigen GIS

SPÖ-Mediensprecher Thomas Drozda und Jetzt-Verfassungssprecher Alfred Noll plädierten nachdrücklich für das Gebührenmodell. Eine Budgetfinanzierung des ORF würde die Abhängigkeit gegenüber der Politik steigern, erklärten beide. Noll verlangt im Gegenteil, den ORF „zu entpolitisieren“.

Bund und Länder schlagen rund 350 Millionen Euro auf die GIS auf – teils verwendet für Medien- und Produktionsförderungen. Volksbegehren-Initiator Rudolf Gehring (Christliche Partei Österreichs) verlangt ein Ende der Abgaben auf die GIS; der ORF solle sie direkt einheben – und nur bei jenen, die auch ORF-Programme nutzen, erklärte er im Ausschuss.

Der Quantencomputer und die Wiedergeburt von IBM

IBM präsentiert auf der CES den ersten kommerziell nutzbaren Quantencomputer der Welt. Damit will der US-Konzern in der neuen, vollvernetzten Big-Data-Welt wieder an die Spitze gelangen.

Auf der CES feierte nun der erste kommerzielle Quantencomputer seine Premiere, der „IBM Q System One“. Er arbeitet mit 20 Qbit. Qbit ist die kleinste Informationseinheit in einem Quantencomputer. Sie ermöglicht es – anders als die Bits in einem klassischen Computer – mehrere Millionen Berechnungen parallel auszuführen.

Doch 20 Qbits sind noch lange nicht in der Lage, die Leistungen heutiger Supercomputer zu erreichen. Aber Rometty machte klar, dass dies erst der Anfang ist. Jetzt wird es für Unternehmen und Organisation möglich werden, außerhalb von Laborumgebungen mit Quantencomputern zu experimentieren und eigene Anwendungen zu entwickeln.

Das Endergebnis ist schon jetzt imponierend. Ein elegantes, über zwei Meter hohes und breites, luftdicht abgeschlossenes Gehäuse, in dem wie schwerelos der Quantencomputer grazil von der Decke hängt. Ein Computer, der mehr einem Kunstwerk ähnelt und bei dem IBM nicht umsonst Anleihen an die Zeiten macht, als die berühmten „Cray“-Supercomputer begannen, die gesamte IT-Industrie zu revolutionieren.

Die Nachricht lautet: IBM ist wieder da. Eine Botschaft, die Rometty dringend vermitteln muss. Der Aktienkurs erreicht immer neue Tiefststände und das Umsatzwachstum will einfach nicht in Schwung kommen. Quantencomputing ist eine massive Wette auf die Zukunft. Aber genau das ist es, was IBM jetzt braucht, um seinen Platz in der Welt von Cloud-Computing, Amazon, Microsoft Azure oder Google Cloud wiederzufinden: Sein eigenes „next big thing“, vielleicht im Quantenuniversum.

Ein weiteres IBM-Projekt feierte seine Premiere. Der Technologie-Konzern forscht seit sechs Jahren an dem „Speech by Crowd“. Menschen können gemäß dem Regelwerk von Debatten ihren Standpunkt zu einem Thema in einem vierminütigen Eingangsstatement kundtun, danach antwortet die künstliche Intelligenz aus der Cloud und die Debatte nimmt ihren Lauf.

Zur Veranschaulichung der „Project Debater“ genannten Technologie startete die IBM-Chefin in der Spielkasinometropole ein brisantes Debatten-Thema: „Sollte Glücksspiel verboten werden?“ Rometty hatte den Ernst der Lage voll erfasst: „Wenn das wirklich passieren sollte, können wir uns hier nie mehr sehen lassen“, schmunzelt sie bei der Eröffnungsrede der CES.

Warum eröffnet ausgerechnet der Vorzeigekonzern der Unternehmens-IT eine Messe wie die CES, die ihre Wurzeln in der Konsumelektronik hat? Rometty war sich der Herausforderung bewusst und nahm die Zuhörer mit auf eine Reise in eine sich komplett verändernde Welt.

Die debattierende Künstliche Intelligenz in der Cloud ist kein Gag oder Selbstzweck. In einem Zeitalter, in dem Menschen, Kunden, Konsumenten immer öfter mit smarten Lautsprechern von Google, Amazon oder Apple reden, wird hier der praktische Nutzen schnell klar. Die Menschen wollen oder müssen mit diesen Maschinen in Zukunft ihre Probleme lösen.

Dafür müssen diese sie verstehen, die Probleme erkennen, analysieren und Lösungsansätze bieten und diese diskutieren. „Bringen sie heute mal einen der Lautsprecher nur dazu, vier Minuten zuzuhören“, scherzte Rometty und das Gelächter im Saal zeigte, dass die Zuhörer dem zustimmen. In vier Minuten muss ein Alexa-Speaker schon irgendwas verkauft haben.

In Zukunft wird ein Digitalassistent mit einer Künstlichen Intelligenz beim „Project Debater“ dem Kunden geduldig zuhören, Fragen stellen und aus den Vorlieben des Kunden dann herausfiltern, ob er wirklich ein iPhone will, oder vielleicht doch ein anderes Gerät.
Irgendwo ist immer Technologie im Hintergrund, das ist die Botschaft, die IBM vermitteln will und natürlich: IBM ist dabei. Das beginnt mit jedem Ticketkauf im Internet und geht bis zu Nahrungsmittelsicherheit im Supermarkt m

it neuer Blockchain-Technologie, die Lieferketten nahtlos zurückverfolgt. So werden zum Beispiel Rückrufe in Zukunft anders ablaufen.

Heute noch muss ziemlich pauschal alles aus den Regalen geräumt werden, wenn ein Produkt kontaminiert ist. In Zukunft wird gezielt herausgesucht, so Charles Redfield von Walmart. Wenn IBM die brisanten Daten sozusagen als unabhängiger Dritter verwahrt, ist es kein Problem für die Branche, sie zu teilen. Die Konkurrenz erfährt nur das, was sie wissen muss, wenn es gilt zu handeln.

IBM will auch den Flugverkehr sicherer und bequemer machen. Das neue, GRAF genannte System (Global High-Resolution Atmospheric Forecasting System) werde den typischen Radius einer Wettervorhersage von heute 15 Kilometern auf drei Kilometer reduzieren, verspricht Rometty. Dazu verarbeiten Supercomputer auf IBM-Basis hunderttausende bisher unbeachtete Wetterdaten aus aller Welt und diversen Quellen und mit stündlichem Update.

Damit soll zum Beispiel deutlicher und schneller vorhersehbar sein, ob ein Flugzeug wegen Turbulenzen seine Route ändern muss. Hier zeigen sich erstmals deutlich die Möglichkeiten und Geschäftsmodelle, die sich aus der Akquisition des „Weather Channel“ erheben können. Wetter, so Rometty, ist einer der größten Einflussfaktoren auf Unternehmen und Geschäfte weltweit, nicht nur Landwirtschaft.

CES wird zum Kampfplatz der Mobilität

Softwaregiganten wie Google wollen die Vorherrschaft im Mobilitätssektor an sich reißen. Daimler, BMW und Audi halten auf der CES dagegen.

Für die heimischen Autobauer geht es in diesem Kampf um die Kundenschnittstelle im Mobilitätssektor um viel. Dass VW, Daimler und BMW in Zukunft noch so dominant sein werden wie heute, ist längst nicht ausgemacht. Im Gegenteil. „Die Autokonzerne tun sich enorm schwer“, konstatiert Stefan Bratzel, Leiter des Center of Automotive Management.

Die Tech-Riesen hätten zudem einen Startvorteil: „Google, Apple und Co. haben bereits bestehende Ökosysteme, die sie nur auf Autos ausdehnen müssen“, so Bratzel. Die Fahrzeughersteller wären hingegen vielfach gezwungen, sich erst noch breitere Softwarekompetenzen und ein besseres Dienstleistungsverständnis anzueignen.
Nirgendwo sonst auf der Welt kommen sich die beiden Sphären so geballt so nah wie auf der Consumer Electronics Show (CES) in Las Vegas. Direkt gegenüber dem Haupteingang hat sich Google aufgebaut.

„Hey Google“, lockt eine Leuchtreklame auf der Frontseite des bunten Bungalows. Hier, am wohl prominentesten Ort der Messe, zeigt der Softwareriese, wie er sich die Zukunft des Autofahrens vorstellt: smart, interaktiv und natürlich geleitet von Google-Software.

Der IT-Konzern zeigt eine neue Integration des Google Assistants für Karten- und Navigationsprogramme, Maps, der sowohl auf dem eigenen Betriebssystem Android als auch auf Apples iOS läuft. Der Fahrer kann sich per Sprachsteuerung zu bestimmten Orten navigieren lassen, ohne dass seine Finger das Telefon berühren.

Unterwegs fragt ihn die Google-Intelligenz, ob er Familie und Freunden die Ankunftszeit mitteilen will, und verfasst Nachrichten. Das Smartphone ist dabei via Bluetooth mit dem Infotainmentsystem des Vehikels verknüpft.
Daimler stellt neues Bediensystem vor

Auf der CES lassen sich eindrücklich die immensen Veränderungen des Autos erfassen. Differenzierten sich die Fahrzeugbauer früher über luxuriöses, schnörkelloses Design, 12-Zylinder-Motoren und Hochgeschwindigkeitsfahrwerke, steht heute zunehmend das vollvernetzte Infotainmentsystem gespickt mit Künstlicher Intelligenz im Vordergrund – etwa bei Daimler.

Der Mercedes-Hersteller präsentiert in Nevada sein runderneuertes Bediensystem MBUX, das mithilfe von Sprachbefehlen und Handgesten angesteuert wird. Vor gut drei Jahren haben die Stuttgarter damit begonnen, ihre komplette Softwarearchitektur neu aufzusetzen.

Heute spielt der Konzern neue Dienste durch sogenannte Over-the-Air-Updates über die Cloud auf. „Wir sind auch eine Art Softwarecompany“, frohlockt Entwicklungsvorstand Ola Källenius.

Der Schwede, der im Mai an die Spitze des Daimler-Konzerns rücken soll, preist MBUX als offenes System. „Du kannst nicht überall das Rad neu erfinden, vor allem da, wo es verdammt gute Räder gibt“, sagt Källenius. Daher wurden in MBUX beispielsweise auch Services von Yelp, Tripadvisor, WeChat, Amazon, Alibaba oder Spotify integriert.

Auf keinen Fall kooperieren will Daimler hingegen in den Bereichen Ästhetik, Bedienlogik und Intuition. Das Fazit von Källenius nach fast einem Jahr MBUX im realen Betrieb fällt positiv aus. Obwohl die teuerste Ausstattung des Systems etwa 2500 Euro kostet, haben 65 von 100 Kunden der A-Klasse dieses System gekauft, das Vorgängersystem kam gerade auf zehn Prozent.

BMW kooperiert mit der Alibaba-Sprachsteuerung

Bis März verspricht Erzrivale BMW nachzuziehen. Ab dann sollen Kunden des Münchener Autokonzerns mit dem Sprachbefehl „Hey BMW“ ihren persönlichen Assistenten zum Leben erwecken können. In China integrieren die Münchener zudem den Sprachassistenten T-Mall Genie von Alibaba, der Zugriff auf das riesige Onlineshopping-Angebot des Internetkonzerns sichert.

Auch Audi und Daimler kooperieren mit den chinesischen Internetgiganten. Dahinter steht sanfter Zwang: Die Regierung in Peking schreibt den Autoherstellern in China vor, dass nur einheimische Navigationsdienste genutzt werden dürfen. Für Konzerne wie Alibaba und Tencent ist das die Eintrittskarte in das Geschäft mit Autofahrern.

Die Schnittstelle zum Kunden zu verteidigen hat deshalb für die Autokonzerne oberste Priorität. „Vor ein paar Jahren musste die Autoindustrie noch wachgerüttelt werden, damit die Branche den digitalen Wandel nicht verschläft“, sagt Gabriel Seiberth, Autoexperte der Beratung Accenture. Mittlerweile würden die „Autobauer aber mehr und mehr zu Techkonzernen mutieren“.

Dario Gill, Chef für das operative Geschäft beim Forschungszweig des Softwareriesen IBM, warnt die Automobilindustrie zudem: „Daten sind das neue geistige Eigentum.“ Die Hersteller sollten diese bloß nicht leichtfertig preisgeben. Bis dato denken die Autobauer nicht daran. In Google sehen sie nahezu unisono einen Datenkraken.

„Der BMW-Kunde verlangt, dass wir seine Daten schützen“, sagt Holger Hampf, Vice President von Designworks, dem hauseigenen Thinktank von BMW. Die Folge: Google kommt bis dato nicht wirklich als Partner für die Fahrzeughersteller infrage. Gänzlich anders agiert etwa Microsoft. „Die spielen sich nicht in den Vordergrund“, sagt Hampf. „Und Microsoft überlässt uns die Interaktion mit dem Kunden.“

Auch mit Amazon ist BMW dicht verdrahtet. Alexa, die smarte Assistentin des Onlinehändlers aus Seattle, spricht bereits in einigen Modellen von BMW und Volkswagen. Schon im September stellte Amazon „Alexa Auto“ vor.

Das kaum handflächengroße, schwarze Kästchen baut eine Verbindung zur digitalen Helferin auf und speichert auch ortsspezifische Routinen des Fahrers. So schaltet sie beispielsweise das Licht an, wenn sich das Fahrzeug der Garage nähert, spielt Audiobücher ab oder navigiert den Autobesitzer.

Accenture-Berater Seiberth hält die großen IT-Unternehmen keineswegs für allzu furchterregend für die Autobauer. „Auch die großen Techkonzerne haben Schwächen. Außer Apple hat es noch kein Konzern aus dem Silicon Valley geschafft, richtig ins Hardwaregeschäft einzusteigen.“

In der Mobilitätswelt von morgen sei aber sowohl die Produkt- als auch die Softwarekompetenz unabdingbar. „Es ist fraglich, ob die US-Konzerne den deutschen Autobauern ihre Plattformen und Dienste aufzwingen können.“

Es kommt offenbar auf die richtige Strategie an. „Microsoft positioniert sich da als weißer Ritter und kooperiert anders als Google lieber mit den Autobauern“, sagt Seiberth. „Die Strategie, sich Daten und Umsätze zu teilen, ist erfolgversprechender.“ Microsoft stehe vor einem großen Revival, glaubt der Berater.

Wie Amazon den Einzelhandel knacken will

Mit einem Börsenwert von 797 Milliarden Dollar hat der Online-Händler Amazon Börsen-Chart zeigen gerade Microsoft Börsen-Chart zeigen als das wertvollste börsennotierte Unternehmen der Welt abgelöst. Und auch für Amazon-Chef Jeff Bezos selbst läuft es momentan sehr gut. Mit einem Vermögen von mehr als 123 Milliarden Dollar ist er mittlerweile der reichste Mann der Welt. Ein Vermögen, das sich stündlich um 4,5 Millionen erhöht, wie kürzlich die Wirtschaftsseite „Businessinsider“ ausgerechnet hat. Doch Bezos wäre nicht Bezos, wenn der US-Manager sich auf dem Erreichten auszuruhen und nicht weiter am Siegeszug seiner Unternehmens arbeiten würde. Und auf diese Weise nach und nach immer mehr Branchen mit „amazonisieren“ würde.

Bezos größte Herausforderung dabei: Die noch immer existierende Dominanz des stationären Handels. „90 Prozent aller Transaktionen finden offline statt“, formulierte es kürzlich Amazon-Deutschland-Chef Ralf Kleber in einem Interview. Es bringe daher nichts, sich auf die zehn Prozent zu konzentrieren, die online einkauften.

Entsprechend verstärkt Amazon, wie übriges seine internationalen Wettbewerber auch, aktuell massiv seine Bemühungen im stationären Handel. Und plant offenbar nicht nur den Ausbau des Filialnetzes der 2017 gekauften Supermarktkette Whole Foods. Sondern treibt auch die Eröffnung zahlreicher neuer Filialen seiner teilautomatisierten Amazon Go und seiner 4-Stars-Kaufhäuser voran.

Ein Vorhaben, das angesichts hoher Technikkosten wie für Kameras, Sensortechnik und kassenlose Bezahlsysteme erst einmal sehr teuer werden dürfte. Das sich Experten zufolge für Amazon jedoch nicht nur aufgrund der technischen Erfahrungen lohnen dürfte.

So schätzen Marktforscher des Analysehauses RBC Capital Markets aufgrund von Daten aus eigenen Testkäufen und erhobenen Besucherzahlen, dass Amazon-Go-Läden 50 Prozent mehr Umsatz erwirtschaften als durchschnittliche Läden. Die Marktforscher kommen damit auch einen hochgerechneten Umsatz von 1,5 Milliarden Dollar pro Jahr. Bei einem angeblich geplanten Ausbau auf bis zu 3000 kassenlose Filialen bis 2021 käme so ein Umsatz von 4,5 Milliarden Dollar jährlich zusammen, rechnen die Marktforscher vor.

Von Null auf 4,5 Milliarden Dollar in 4,5 Jahren

Zahlen und eine Expansionsgeschwindigkeit, die, wenn es wirklich so kommt, so manch andere Supermarktkette vor Neid erblassen lassen dürften. Bislang betreibt Amazon laut der US-Seite Recode neun Amazon-Go-Läden in den USA – alle in Metropolen wie Seattle, San Francisco oder Chicago. Diese unterschieden sich zum Teil deutlich bei den angebotenen Produkten. Während einige vor allem auf frisch zubereitetes Essen wie Salate und Sandwiches setzten, sind demnach andernorts auch Bier und Lebensmittel zu erhalten, die nicht für den direkten Verzehr gedacht sind.

Zudem hat der Onlinehändler, der bereits mehrere stationäre Buchläden betreibt, im Oktober in New York demnach seinen vierten sogenannten „4-star-Store“ eröffnet. Auf rund 400 Quadratmetern können sich Kunden dort Trendartikel, Produkte mit einer Bewertung von mindestens 4 Sternen und andere Topseller erstehen. Und auch bei der 2017 für 13,5 Milliarden Dollar gekauften Supermarktkette Whole Foods plant Bezos offenbar einen US-weiten Ausbau – auch um von dort aus mit seine Frische-Lieferdiesten künftig mehr Leute erreichen zu können. Und auch in Indien ist Amazon in eine Supermarktkette investiert.

Aber Amazon ist längst nicht der einzige Tech-Riese, der auf stationäre Läden setzt, um Kunden- und Umsatzzahlen weiter in die Höhe zu treiben. Auch in Asien versuchen Tech-Riesen wie Alibaba und Tencent mit dem Kauf riesiger Filialketten für Milliardenbeträge auch die Offline-Bedürfnisse ihrer Kunden kennenzulernen und sie zu bedienen und auf diese Weise Online- und Offlinegeschäft miteinander zu verschmelzen – New retail nennt Alibaba dies.

Die Chinesen sind schon weiter

Schon 2017 stieg beispielsweise Alibaba für einen Milliardenbetrag bei der chinesischen Supermarktkette Sun Art sowie bei der Elektronikkette Suning ein. Anfang 2018 folgte dann ein weiteres Millioneninvestment in die Möbelkette Easyhome. Insgesamt 10 Milliarden Dollar hat Alibaba sich seine Offlineaktivitäten laut dem „Economist“ bislang kosten lassen.

Alibabas Vorzeigeprojekt ist jedoch die Supermarktkette Hema. 2015 gegründet, existieren mittlerweile 46 Läden der Kette in 13 Städten. Weitere 2000 sind offenbar geplant. Neben dem Einkauf frischer Lebensmittel können Kunden sich dort die gekauften Produkte auch direkt zubereiten, innerhalb von 30 Minuten nach Hause liefern lassen und an der Kasse per Gesichtserkennung bezahlen.

Auch Konkurrent Tencent sowie der chinesische Alibaba-Konkurrent JD.com tummeln sich längst im stationären Handel. So unterhält Tecent, Betreiber des in China beliebten Chatdienstes Wechat, zusammen mit Rossmann-Großaktionär A.S. Watson und dem Supermarktkonzern Yonghu mehr als 70 Supermärkte in der chinesischen Provinz Guangdong. Zudem testen die Chinesen zusammen mit der französischen Supermarktkette Carrefour neue „Smart-Retail“-Technologien wie etwa kassenlose Bezahlsysteme.

Und auch J.D.com hat die Verknüpfung von On- und Offlinehandel für sich entdeckt und zuletzt massiv in das Geschäft mit frischen Lebensmitteln investiert. Medienberichten zufolge will das Unternehmen in den nächsten fünf Jahren seine Supermarktkette 7Fresh um 1000 Läden erweitern.

Wagenknechts „Aufstehen“ wirkt müde

Es kriselt in der von Sahra Wagenknecht initiierten Sammlungsbewegung. Unruhe gibt es nach den Vorbehalten der Chefin gegen die große #unteilbar-Demo.

Mit der Sammlungsbewegung „Aufstehen“ geht es nach Ansicht von führenden Aktivisten zu langsam voran. Kurz nach der großen #unteilbar-Demonstration gegen den Rechtsruck wird diskutiert, ob „Aufstehen“ nicht doch offiziell hätte aufrufen sollen zu dem Protest, an dem sich laut Veranstalter mehr als 240.000 Menschen beteiligten. Linksfraktionschefin Sahra Wagenknecht, Initiatorin von „Aufstehen“, hatte vor der Demonstration Vorbehalte gegen den Aufruf formuliert, der die aus ihrer Sicht falsche Forderung nach „offenen Grenzen für alle“ beinhaltete – die allerdings gar nicht im Papier stand.

Im Netz kursiert ein „Aufstehen“-Arbeitspapier mit der Überschrift „Wie bringen wir die Bewegung in Bewegung?“, in dem Verunsicherung und „unterschiedliche Meinungen“ zu #unteilbar benannt werden. Zudem heißt es dort, die Zahlen der Anhänger würden wenig wachsen, noch sei „keine eigene Kampagne richtig gestartet“. Die Unterstützer würden „sehr ungeduldig“. Weiter heißt es: „Der Sieg, wenn wir ihn hinbekommen, gehört der Bewegung.“ „Aufstehen“ ließ eine Tagesspiegel-Anfrage zu dem Papier unbeantwortet.

Es fehle an strategischen Impulsen, heißt es weiter in der Analyse, die diese Woche im Arbeitsausschuss der Sammlungsbewegung beraten werden sollte. Nach eigenen Angaben war „Aufstehen“ demnach mit 25 Leuten bei der #unteilbar-Demonstration – andere zählten nicht einmal ein Dutzend. Unter ihnen war als bekanntester Mitstreiter von „Aufstehen“ der stellvertretende Vorsitzende der Linksfraktion im Bundestag, Fabio de Masi. Wagenknecht hatte nicht teilgenommen. Kritik an ihrer Person im Zusammenhang mit dem #unteilbar-Protest wertete Wagenknecht als „Kampagne“, die auch von Mitgliedern der Bundestagsfraktion dankbar aufgegriffen worden sei. Bei „Aufstehen“ haben sich inzwischen rund 150.000 Leute für den Newsletter-Bezug registrieren lassen. Sie werden von der Bewegung als Unterstützer gewertet.

„Die Linke war mit Riesenblock bei #unteilbar“

Immer mehr Linken-Politiker kritisieren, dass Wagenknecht zu der #unteilbar-Demonstration auf Distanz gegangen war. Tobias Schulze, Mitglied im Berliner Abgeordnetenhaus, twitterte, bis auf Wagenknecht hätten alle Partei- und Fraktionsvorsitzenden an dem Protestzug am vergangenen Samstag durch Berlin teilgenommen. „Die Linke war mit einem Riesenblock da“, schrieb Schulze, „auch die Grünen waren ordentlich vertreten“.

Die Landtagsabgeordnete Henriette Quade aus Sachsen-Anhalt erklärte auf Twitter unter Bezug auf das Arbeitspapier der Sammlungsbewegung: „Das passt zum Eindruck, den #aufstehen auch bei mir hinterlässt: Leute in Amt und Funktion, die versuchen, sich als Bewegung zu inszenieren um Positionen durchzukriegen, in denen die Partei ihnen bisher die Gefolgschaft verwehrt.“ Zuvor hatten sich unter anderem die Bundestagsabgeordneten Niema Movassat und Stefan Liebich kritisch geäußert.

Wagenknecht hatte bei einer Diskussionsveranstaltung der Linksfraktion vergangene Woche zur #unteilbar-Demonstration erklärt: „Wir sind nicht formal dabei.“ Sie sagte, es sei richtig, wenn viele Leute gegen Rechtsentwicklung und Rassismus auf die Straße gehen würden. Doch sehe sie im Aufruf zur Demonstration eine Tendenz, wo eine bestimmte Position, nämlich ,offene Grenzen für alle‘, schon wieder als „die bestimmende Position dargestellt wird“. Und: „Wenn wir über ,offene Grenzen‘ für alle reden, ist das eine Forderung, die die meisten Menschen als irreal und völlig weltfremd empfinden und damit ja auch recht haben.“ Die Welt jedenfalls würde mit dieser Forderung „nicht besser“ gemacht.

„Verkürzt und missverständlich interpretiert“, sagt Bernd Stegemann

Der Dramaturg Bernd Stegemann, Mitstreiter von Wagenknecht in der „Aufstehen“-Initiative, verteidigte Wagenknecht gegen Kritik. „Dass man sie verkürzt und missverständlich interpretieren will, ist bedauerlich“, sagte Stegemann im Tagesspiegel-Interview.

Dass es ideologische Überschneidungen zwischen dem rechten und linken Rand gibt, hält er für nachvollziehbar. „Jeder, der gerade die hegemoniale Zusammenarbeit von Moral und Kapitalismus kritisiert, muss sich in einer bestimmten Weise aus einem grobianischen Vokabular bedienen, auf den Putz hauen, um Gehör zu finden. Dass da manchmal ähnlich klingende Dinge gerufen werden – das ist dann so. Trotzdem ist sehr Unterschiedliches damit gemeint.“ Wagenknecht will mit ihrer Bewegung auch Anhänger von Pegida und Wähler der AfD „zurückgewinnen“.

„Einfach mal die Klappe halten“

Der rheinland-pfälzische Linken-Bundestagsabgeordnete Alexander Ulrich, ein langjähriger Vertrauter Wagenknechts hingegen sieht die Diskussion um ihre Person von der Fraktionsvorsitzenden selbst verursacht. Auf Facebook schrieb er unter Hinweis auf deren Kritik an der #unteilbar-Demonstration: „Sahra Wagenknecht sollte einfach mal die Klappe halten. Kann man nicht einfach sagen, das sie Fraktion dazu aufgerufen hat und auch viele von Aufstehen hingehen werden? Ist es so schwer, einmal das Verbindende zu suchen?“

Technik-Konsumgüter-Markt weltweit erstmals über 1 Billion Euro

Erstmals haben Verbraucher im vergangenen Jahr weltweit mehr als eine Billion Euro für Smartphones, Unterhaltungselektronik und Co. ausgegeben. Wie das Marktforschungsinstitut GfK mitteilte, betrug der globale Markt für technische Konsumgüter 2018 insgesamt 1,01 Billionen Euro.

Für das neue Jahr werde eine weitere Umsatzsteigerung von 2 Prozent auf rund 1,03 Billionen Euro erwartet, erklärten die Marktforscher vor dem Start der Fachmesse CES in Las Vegas.

Wichtigster Markt für die Technik-Produkte war im vergangenen Jahr mit einem Umsatzanteil von 42 Prozent erneut die Region Asien/Pazifik. Weitere 25 Prozent der Umsätze wurden in Europa erzielt, in Nordamerika rund 20 Prozent, in Lateinamerika 7 Prozent und 6 Prozent in der Region Mittlerer Osten/Türkei/Afrika.

Kampf der Streamingportale erschüttert das Fernsehland

Hundert Milliarden Dollar! So groß ist der Börsenwert einer international operierenden Videothek, die auch 22 Jahre nach der Gründung rote Zahlen schreibt. Und dabei ist Netflix noch nichts gegen Apple! Der Tech-Gigant aus Cupertino agiert hochprofitabel und ist seit August an der Börse eine Billion Dollar wert. Verglichen mit dem Bruttoinlandsprodukt einer Nation würde Apple mit seinen 123 000 Mitarbeitern knapp hinter Indonesien auf Platz 16 der wirtschaftsstärksten Länder rangieren.

Das sollten auch die Mitbewerber von Amazon bis Sky im Kopf haben, wenn sie das neue Jahr planen. Denn Apple, man darf das als Drohung verstehen, will 2019 ins boomende Streaminggeschäft einsteigen. Parallel drängt der Medien-Multi Warner auf einen Markt, der 2018 um 30 Prozent auf 31 Milliarden Euro Umsatz explodiert ist. Und da war vom weltweit wertvollsten Entertainer Disney, dessen gewaltiger Filmfundus künftig auch online abrufbar sein wird, noch nicht mal die Rede.

Das sollte aber nicht nur die Internet-Branche bedenken. Auch das alte Fernsehen blickt gespannt auf die neuen Dienste. Schließlich machen sie ihm gerade hierzulande Feuer unterm Ohrensessel. Amazon Prime Video zum Beispiel adaptiert die populäre Kinderfilmreihe „Bibi & Tina“ gerade als Serien-Event und bindet künftige Versandkunden damit von klein auf an die kalifornische Konsumkrake. Benno Fürmann zeigt sich derweil als Held des europäischen Reihenthrillers „Hanna“, während der britische Aberwitz von „Good Omens“ sechs Teile lang ganz entzückend an „Dirk Gentley’s Holistische Detektei“ erinnert, mit der Netflix seit 2016 Furore macht.

Dort plant man drei Jahre später gleich fünf deutschsprachige Serien: „Die Barbaren“ wird ein römisch-germanisches „Game of Thrones“, den „Tribes of Europe“ ins postapokalyptische Morgen verlegt. Die Milieustudien „Skylines“ oder „Don’t try this at home“ wildern mit Gangstarap und Gangsterchic in der konsumfreudigen Zielgruppe von „4 Blocks“ bis „Narcos“. Und dann mischt der Frischling mit einem Weihnachtsmehrteiler auch noch die Familienkuschelecke der Fernseh-Platzhirsche auf. Was die dagegen wohl machen? Genau: Weiter wie bisher.

Das Erste etwa verlagert den Quotenerfolg der „Charité“ am 19. Februar in den Nationalsozialismus. Vor der „Tagesschau“ debütieren Watzmann-Ermittler, im Anschluss Irland-Krimis und Tom Schilling verkörpert „Brecht“, dazu kommt noch das Mauerfall-Drama „Wendezeit“. Zum 30. Jahrestag setzt auch das Zweite mit dem Zweiteiler „Walpurgisnacht“ auf zweistaatliche Zeitgeschichte. Dazu gibt’s ein Rührstück zum 100. Bauhaus-Geburtstag und die Brauerei-Erzählung „Bier Royal“. Sicher: mit Montagsfilmen und Mittwochsdramen, Infotainment und Nachrichtenkompetenz setzen ARD und ZDF samt Arte und Neo weiter die Maßstäbe seriöser Vollprogrammversorgung.

Neue Serien jedoch drehen eher andere. Nun muss man wegen „Der Bulle & das Biest“, einer Exhumierung von „Kommissar Rex“ von Sat 1, sicher ebenso wenig die Filmpreisjurys alarmieren wie im Fall von RTL-Reihen mit Klempnerin und Nachtschwestern oder einer TNT-Mockumentary über Helikoptereltern im März. Immerhin versuchen es die Privaten aber mit Stoffen jenseits des medizinisch-kriminologisch-juristischenMainstreams.

Weltgeltung indes ist offenbar nur im Tandem mit Videoportalen denkbar. Amazon arbeitet weiter an der Deutschland-Saga von RTL, Netflix stellt fröhlich Pro7Sat1-Serien online. Und da „Babylon Berlin“ ein ähnlicher Erfolg im Ersten war wie Ende 2017 bei Sky, wird das Projekt mit Topstars in Topkulissen fortgesetzt, die man sich einzeln kaum leisten könnte. Erst durch solche Kooperationen ist es aus Sicht von Sky-Vize Elke Walthelm möglich, „Content zu produzieren, der im internationalen Vergleich absolut mithalten kann“. Im zunehmenden Wettbewerb gebe es also einen Zug zum Miteinander. Umso mehr machen Digitalkanäle der einst analogen Konkurrenz auf ihrem Kerngebiet Konkurrenz: der herausragenden Fiktion mit kriminalistischem Kern.

Ab 25. Januar jagen Nicholas Ofczarek und Julia Jentsch daher im Stile von „Die Brücke“ einen Serienkiller aufs Sky durchs österreichisch-deutsche Grenzgebiet. Und im März schlagen sich Mark Waschke und Christiane Paul „8 Tage“ durch eine präapokalyptische Zivilisation vorm Meteoriteneinschlag. Alles hochwertig, spannend, oft couragierter als das Regelprogramm. So richtig Geld aber wird dann doch durch einen Koproduktionsdeal über 250 Millionen Dollar mit HBO – dessen Bestseller „Game of Thrones“ im Juni bei Sky endet – bewegt.

Wenn Netflix zugleich neunstellige Summen in Mafiafilme von Martin Scorsese steckt, wenn Warner sein Spielfilmarchiv ins Netz stellt, wenn selbst YouTube Inhalt produziert – dann stellt sich allerdings die Frage: Wer soll das eigentlich alles gucken, um es wie genau noch mal finanzieren? Selbst Serienjunkies haben nur 24 Stunden Zeit zum Binge-Watching. Das Angebot Hunderter Portale und Sender übersteigt die Nachfrage ja schon jetzt.

Es ist wie im Fußball: Weil Spielergagen ins Unermessliche steigen, wird das Publikum mit aufgeblähtem TV-Sport gemästet bis die Liebe Verdruss weicht. So faszinierend das neue Fernsehen also ist: es muss bald mal rentabel wirtschaften. Anders als das Sportportal DAZN sind Streamingdienste nicht nur einem Milliardär, sondern Aktionären verpflichtet. Von den Gläubigern gigantischer Kredite, die besonders Netflix aufnimmt, ganz zu schweigen.

Chancen in der Nische
Gerade darin allerdings liegt womöglich auch die Chance des alten Fernsehens. Winzlinge wie Funk oder Neo zeigen ja mit drolliger Lowbudget-Fiktion, wie viel wenig erreichen kann. Bei den Scheinriesen hingegen macht das ZDF Frank Schätzings „Schwarm“ und RTL ein Remake von „M – Eine Stadt sucht einen Mörder“, Jörg Kachelmann kehrt ins Erste zurück und ProSieben mit einer Datingshow auf den Kuppelmarkt. Allenfalls Arte traut sich mit einer deutsch-französischen Fiktion („Eden“) übers Flüchtlingselend an Europas Stränden gelegentlich aus der Deckung gefälliger Unterhaltung. Aber wo genau bitte sind die noch mal auf der Fernbedienung?

Auch wegen seiner strukturellen Randlage stärkt der Kulturkanal daher wie niemand sonst im linearen Segment seine Mediathek und positioniert sich somit im Grunde längst zwischen den echten Onlinern. Nur: Was die bisweilen für einzelne Hochglanzformate raushauen, damit finanziert Arte mit Mühe ein Senderquartal. Und durch die neuen, milliardenschweren Neuzugänge wird der Markt gewiss nicht luftiger.

Christoph Schneider zeigt sich im Münchner Industrie-Gebiet zwar fast aufreizend gelassen, wenn der deutsche Geschäftsführer von Amazon Prime Video beteuert, „angesichts der vielen Pläne, von denen da dauernd zu hören ist, muss man erst mal sehen, was am Ende des Tages umgesetzt wird“. Aber falls Disney mit Superhelden ums Portaleck biegt, Warner mit Harry Potter und beide mit Originalserien, dann kriegt das selbst sein mächtiger Handelskonzern zu spüren. Und das Niveau sowieso. Masse, ganz gleich welcher Güte, siegt 2019 wohl doch über Klasse.

Apple schafft sich selbst Probleme

In einem Brief an Investoren hat Apple-Chef Tim Cook erklärt, dass der Konzern seine Umsatzprognose nicht erreichen wird. Schuld daran seien vor allem der schwächelnde Markt in China. Doch ist das nicht Apples einziges Problem. Ein anderes hatte Cook in seinem Schreiben selbst angesprochen, als er schrieb, dass „manche Nutzer sich die deutlich reduzierten Preise für Austauschbatterien zunutze gemacht“ haben.

Nach Klagen von zwei iPhone-Besitzern hatte der Konzern Ende 2017 bestätigt, eine Art Software-Bremse in die Geräte eingebaut zu haben. Die Begründung dafür war schlüssig: Wenn sie altern, verlieren Akkus langsam einen Teil ihrer Leistungsfähigkeit. Wenn dann aber der Prozessor des Smartphones für eine bestimmte Aufgabe besonders viel Energie braucht, kann es passieren, dass sich das Gerät spontan abschaltet.

Apples Bremse sollte das verhindern. Wenn die Software feststellte, dass der Akku nicht mehr volle Leistung bringt, wurde der Prozessor soweit gedrosselt, dass er den Stromspeicher nicht mehr mit Leistungsspitzen überfordern konnte. Eigentlich eine gute Idee – hätte Apple seinen Kunden davon erzählt.

Für die Nutzer schien es jedoch so, als würde das Gerät aus unerfindlichen Gründen immer langsamer werden – was es ja auch tat. Irgendwann wird ein solches iPhone fast unbenutzbar und man denkt unweigerlich über den Kauf eines Nachfolgemodells nach, um die Misere zu beenden.Auf die Kritik an dieser Technik reagierte der Konzern nicht nur mit Erklärungen, sondern auch mit dem Angebot: Bis Ende 2018 konnte man altersschwache Akkus für 29 Euro statt der bis dahin geforderten 89 Euro bei Apple austauschen lassen – ein Angebot, das offenbar Millionen Kunden wahrgenommen haben und mit dem alte iPhones wie das iPhone SE oder das iPhone 6 wieder flottgemacht wurden.

Manche Geräte wurden wohl wieder so flott, dass der Wunsch nach einem Neugerät bei vielen Besitzern vorläufig auf Eis gelegt wurde. Zumal selbst noch auf einem mehr als fünf Jahre alten iPhone 5s die neueste Betriebssystem-Version iOS 12 läuft. Und sie wiederum bewirbt Apple damit, dass sie auf alten iPhones viel schneller läuft als ihr Vorgänger: So soll beispielsweise die Kamera um bis zu 70 Prozent schneller starten.

Wenn nun aber das alte iPhone gerade durch Akkutausch und iOS-Update besser und schneller geworden ist, warum sollte man dann ein neues kaufen?

Gründe dafür könnte es viele geben. Die Gesichtserkennung der neuen iPhone-Modelle ist sicherer als die Fingerabdrucksperre der alten Geräte, ihre Prozessoren sind schneller, man kann sie kabellos aufladen und auch mal ins Wasser fallen lassen, ohne dass sie Schaden nehmen. Außerdem wurden die Bildschirme verbessert, die Speicherkapazitäten erhöht und etliche Details verbessert. Und natürlich wurden auch die Kameras besser, auch wenn das iPhone XR auf dem Datenblatt noch dieselben 12 Megapixel wie ein iPhone 6s hat.

Und deshalb wechseln?

Viele iPhone-Nutzer dürften das alles aber wenig aufregend finden. Wer sein Smartphone primär zum Chatten und Fotografieren benutzt, ab und zu eine App verwendet oder ein Spiel spielt und ein paar Tausend Musiktitel mit sich herumträgt, braucht kein Highend-Modell.

Viele der Neuerungen, mit denen Apple seine Geräte in den vergangenen Jahren verbessert hat – so wie die drahtlose Ladefunktion und der größere Farbumfang der Bildschirme – sind für Vielnutzer echte Highlights, Gelegenheitsanwendern aber oft nicht wichtig genug.

Natürlich ist auch das liebe Geld ein Grund dafür, weshalb viele Kunden zögern, sich beispielsweise ein neues iPhone Xs zu kaufen. Schließlich muss man dafür mindestens 1149 Euro, mit der Topausstattung sogar 1549 Euro bezahlen. Das sind Preise, bei denen nicht nur Apple-Fans in Schwellenländern wie China und Indien, sondern auch die meisten in den westlichen Industrienationen mit spitzem Stift rechnen müssen, ob sie sich diesen Luxus leisten können.

Verschärft wird das Preisproblem dadurch, dass viele Mobilfunkprovider die Subventionen, mit denen sie neue Smartphones an treue oder neue Kunden verkaufen, drastisch zusammengestrichen haben.

Apples iPhone-X-Problem

Und dann ist da noch das iPhone-X-Problem. Mit diesem Modell hat Apple das iPhone 2017 quasi neu erfunden und vieles verbessert, was verbesserbar war. Außerdem wurde ein Prozessor eingebaut, dem Testprogramme wie Geekbench noch heute mehr Leistung attestieren als selbst den besten Android-Smartphones. In den iPhones 8 und 8 Plus, die zusammen mit dem X präsentiert wurden, steckt derselbe Chip.

Wer eines der Ende 2017 vorgestellten Modelle besitzt, muss sich also mittelfristig keine Sorgen zu machen, leistungsmäßig nicht mehr mitzukommen. Derzeit dürfte es nur wenige Apps geben, die die Leistung der aktuellen Apple-Prozessoren A11 und A12 wirklich ausnutzen. Die Zahl der Umsteiger von einem iPhone X auf das neueste Modell Xs dürfte entsprechend gering sein.

Für Apple ist die Leistungsfähigkeit seiner eigenen Prozessoren damit Fluch und Segen: Aktuelle iPhones können, gerade in neuen Bereichen wie Augmented Reality, mehr und anspruchsvollere Aufgaben erledigen als alle anderen Smartphones. Damit ist die Leistung derart hoch, dass es zumindest aus der Perspektive von Nutzern der Vorjahresmodelle kaum einen Grund gibt, auf die neuen Versionen aufzurüsten. Schlechtere iPhones zu bauen, wäre für Apple freilich auch keine Lösung.

Billigere Modelle allerdings, für Kunden mit geringeren Ansprüchen und schmalerem Portemonnaie als die Stammkundschaft, könnten zumindest ein Teil der Lösung sein. Ein solches Gerät hatte der Konzern schon einmal im Angebot, das iPhone SE. Jetzt wäre der wohl richtige Zeitpunkt für eine Neuauflage des Einsteiger-iPhones mit aktueller Technik.

Lebenslanges Lernen leicht gemacht: Der Höhenflug der Podcasts hat eben erst begonnen

„Das ist eine Revolution wie einst jene von Johannes Gutenberg“, glaubt Jordan Peterson. Der streitbare Psychologieprofessor aus Toronto ist einer der Anführer und auch der Nutznießer dieser Revolution, die die Welt so bewegen könnte wie einst die Erfindung des Buchdrucks: Millionen schauen auf Youtube seine Vorlesungen und hören dank Podcasts seine stundenlangen Gespräche mit anderen Querdenkern. Erstmals in der Geschichte erreiche das gesprochene Wort dieselbe Verbreitung wie das geschriebene Wort, stellt Jordan Peterson fest, und dies ohne lange Publikationsfristen oder teure Produktion.

So lässt sich live beobachten, was der Philosoph Jürgen Habermas einst, beim Aufkommen des Bürgertums mit seinen Journalen und Magazinen im 18. Jahrhundert, als Strukturwandel der Öffentlichkeit erkannte. Und damit geht, wie Jordan Peterson meint, ein Strukturwandel der Bildung einher. „Weshalb sollen wir nur bis 25 lernen?“, fragt er. Auf dem Internet können Lernwillige jeden Alters das Wissen der Welt nutzen, vom Clip auf Youtube bis hin zum Massive Open Online Course von Harvard. Dank den Podcasts lässt sich, anders als bei Lektüre oder Videos, das Lernen mit dem Alltagsleben vereinbaren, ob im Stau, am Kochherd oder auf dem Laufband. Die Revolution, rechnet Jordan Peterson vor, macht also täglich zwei Stunden für die Weiterbildung frei.

Der wichtigste Revolutionär hieß auch hier Steve Jobs: Mit dem 2001 eingeführten iPod bot er eine bequeme Möglichkeit, unterwegs Musik, aber auch Radio zu hören. Für die Broadcast-Sendungen, die sich auf dem iPod speichern ließen, prägte der „Times“-Journalist Ben Hammersley den Begriff Podcasts. Apple nahm sie 2005 in iTunes auf, gab aber wegen der Tücken der App einigen Konkurrenten die Gelegenheit, bessere Alternativen zu entwickeln. Erst mit den jüngsten Betriebssystemen lassen sich Podcasts einfach verwalten und auch allein via Apple Watch abspielen. Für die Mehrheit der Android-Nutzer anderseits mischt seit Juni auch Google in diesem Markt mit, gemäß Gerüchten dereinst gar mit Transkription von Audiodateien und Suchfunktion für sie.

Im März 2018 sprang Apple über die Marke von 50 Milliarden Podcast-Downloads, davon fast 80 Prozent in den letzten vier Jahren – der Boom läuft also erst an. Dazu führten die simplere Verwaltung, vor allem aber das attraktivere Angebot. Der Durchbruch beim breiten Publikum kam in den USA 2014 mit „Serial“, einem Ableger der Sendung „This American Life“ von Chicago Public Media: Die Journalistin Sarah Koenig rollte den ungeklärten Mord an einer Schülerin in Baltimore auf und nahm das Publikum bei ihren Recherchen mit. Dieses Jahr lief bereits die dritte Staffel, mit immer noch wachsender Hörerschaft – insgesamt zählt „Serial“ bis jetzt weltweit 420 Millionen Downloads, steht meist an der Spitze der Charts und findet deshalb zahlreiche Nachahmer.

Erfolgreiche Angebote kommen auch von Bestsellerautoren, die merken, dass das Publikum lieber hört als liest. Stephen Dubner forscht mit „Freakonomics Radio“ schon seit 2010 nach der „verborgenen Seite von allem“. Und Malcolm Gladwell schrieb seit 2016 mit drei Staffeln von „Revisionist History“ die Geschichte von „übersehenen oder missverstandenen Ereignissen“ um; jetzt spricht er, zusammen mit der Produzentenlegende Rick Rubin, in „Broken Record“ mit berühmten Musikern. Das scheint sich angesichts der üppigen Werbung zu lohnen, deshalb liebäugeln auch andere Branchenführer wie Michael Lewis damit, das Genre zu wechseln.

Alibaba-Chef Jack Ma treibt seinen Angriff auf den globalen Onlinehandel voran

Der reichste Mann Chinas denkt wie Staatschef Xi Jinping in großen Maßstäben. „Wir stellen neue Regeln für die Zukunft auf“, verkündete Alibaba-Gründer Jack Ma kürzlich. Gemeint ist eine neue Plattform für den Onlinehandel, mit der er die Welt verändern will.

Die Idee: Alibaba baut eine globale Handelsplattform auf, die für die Nutzer kostenlos ist. Von China hat Jack Ma sein Konzept bereits nach Südostasien und Afrika exportiert. Nun greift Ma in Europa an – im belgischen Lüttich errichtet Alibaba ein gigantisches Logistikzentrum.

Schon auf den ersten Blick ist es ein Megaprojekt: Auf 220.000 Quadratmeter Fläche will der chinesische Onlinehändler Alibaba am Flughafen Lüttich das Drehkreuz aufbauen. Mindestens 75 Millionen Euro will er im ersten Schritt dort investieren.

Von hier sollen europäische Mittelständler Ware nach China liefern können – und umgekehrt Produkte aus China nach Europa eingeführt werden. Allein aus Europa könnten so in den kommenden fünf Jahren Waren im Wert von über 200 Milliarden Euro in die zweitgrößte Volkswirtschaft der Welt exportiert werden.

Dahinter steckt ein Projekt, das weit über Belgien hinausgeht und sich auch nicht auf Logistik beschränkt. Alibaba geht es nicht mal nur um einen Aufschlag in der EU. Der Konzern von Gründer Jack Ma plant global.

„Das neue Drehkreuz in Lüttich ist realistisch betrachtet der Baustein eines viel größeren Plans“, erklärt Olaf Rotax, Managing Director bei der dgroup, einer der führenden Beratungen für digitale Transformation aus dem Accenture-Netzwerk. „Die Chinesen bauen ein digitales Pendant zur Welthandelsorganisation“, so Rotax, der selbst einige Jahre in China gelebt hat.

Jack Ma nennt es „electronic World Trade Platform“, kurz eWTP. Hinter dem sperrigen Begriff verbirgt sich nicht weniger als der Versuch, den globalen Handel neu zu ordnen. In globalem Maßstab will Alibaba mit seiner weltumspannenden Plattform die Hersteller direkt mit den Endkunden zusammenbringen.

Damit verfolgt Alibaba ein radikal anderes Konzept als Amazon. Denn der US-Gigant ist selbst Händler und bietet auf seinem Marketplace anderen Onlinehändlern einen weiteren Verkaufskanal. Alibaba dagegen ist ein reiner Plattformanbieter, dessen wichtigster Partner die Konsumgüterindustrie ist. Deshalb kann Ma seine eWTP als angeblich neutralen Mittler präsentieren.

Lüttich ist nicht der erste Brückenkopf. Im vergangenen Jahr eröffnete Alibaba einen Standort in Kuala Lumpur, es folgten Hangzhou und dann Ruanda. Doch der Vertrag mit Belgien ist jetzt der entscheidende Schritt. „Das Unternehmen verbreitert damit seine Tür zu Europa“, sagt Digitalexperte Rotax. „Das setzt andere europäische Länder unter Druck, ähnliche Verträge abzuschließen.“

Damit läuft Alibaba auch der chinesischen Konkurrenz davon. Zwar hatte der Chef des größten chinesischen Wettbewerbers JD.com, Richard Liu, angekündigt, eine eigene Plattform in Europa aufbauen zu wollen und noch bis Ende 2018 ein Büro in Deutschland zu eröffnen.

Danach wurde es jedoch still um die Pläne. Bei einer US-Reise wurde Liu wegen des Verdachts auf sexuelles Fehlverhalten festgenommen. Vorläufig wird kein Büro von JD.com in Deutschland eröffnet. Derzeit liefen strategische Überlegungen, heißt es. Eine Entscheidung werde es frühestens im Laufe dieses Jahres geben.

Der Angriff von Alibaba dagegen ist generalstabsmäßig vorbereitet. Das Unternehmen hat sein globales Handelskonzept eng mit seinem Logistikdienstleister Cainiao verknüpft.

Mit Cainiao verfolgt Alibaba das Ziel, Bestellungen aus China innerhalb von 24 Stunden und in anderen Teilen der Welt innerhalb von 72 Stunden auszuführen. Eine gewaltige Vision: Pakete sollen weltweit spätestens innerhalb von drei Tagen vom Produzenten zum Käufer geliefert werden.
Das Bezahlsystem Alipay hat bereits 500 Millionen Nutzer

In den kommenden fünf Jahren will Alibaba mehr als 13 Milliarden Euro in die globale Expansion investieren. In Südostasien stockt der Konzern bereits massiv seine Logistikdrehkreuze auf. In Europa will der Händler neben dem Drehkreuz in Lüttich auch ein Versandzentrum in Bulgarien einrichten. Weitere Drehkreuze dürften folgen.

Auch Übernahmen gehören zur Strategie. Den von dem deutschen Maximilian Bittner gegründeten asiatischen Onlinehändler Lazada hat Alibaba bereits übernommen. In Europa gelten Zalando oder der Onlinehändler Lesara als mögliche Übernahmeziele. Mit Alipay verfügt Alibaba auch über einen eigenen Zahlungsdienstleister mit mehr als 500 Millionen Nutzern.

Seine wirtschaftlichen Interessen verpackt Jack Ma in einer Art trojanischem Pferd. Denn den Politikern weltweit verkauft er sein Konzept als Förderprojekt für den Mittelstand.

Die Grundlage dafür legte der Alibaba-Chef im September 2016. Staats- und Regierungschefs aus den führenden 20 Industrienationen der Welt reisten in die ostchinesische Metropole Hangzhou. Staats- und Parteichef Xi Jinping hatte zum G20-Gipfeltreffen geladen und wollte den Aufstieg Chinas zur zweitgrößten Wirtschaftsnation der Welt feiern.

Dafür bot sich ein besonderer Partner an: Jack Ma. Er verkörperte den chinesischen Aufstieg wie kein Zweiter. Erst brauchte er mehrere Anläufe für sein Abitur, dann fand er nur Gelegenheitsjobs, und schließlich stieg er als Gründer in das Internetgeschäft ein.

Heute ist er der reichste Mann Chinas, mit einem geschätzten Vermögen seiner Familie von 39 Milliarden Dollar. Damit stand Jack Ma auch symbolhaft für den Aufstieg der Volksrepublik China. Und Ma wusste die Öffentlichkeit bestens für sich zu nutzen.

Er lud am Rande des Gipfeltreffens die Staats- und Regierungschefs zu Treffen ein und führte sie durch die Alibaba-Zentrale, die nur wenige Kilometer vom Kongresszentrum entfernt lag. Denn Ma wollte seine Handelsplattform vermarkten. „Wir werden die kleinen und mittelständischen Firmen stärken“, versprach er den Wirtschaftsdelegationen. Der Kern seiner Werbebotschaft lautet: Alibaba hat in China Millionen von kleinen Herstellern gefördert – ist also der Freund des Mittelstands.

Ma ist es zu verdanken, dass Onlineshopping für Millionen von Chinesen heute das Selbstverständlichste der Welt ist. Über seine Plattform machten viele Bürger in der Volksrepublik Anfang der 2000er-Jahre zum ersten Mal Erfahrungen mit dem Internet. Heute ist das Land mit 800 Millionen Internetnutzern nicht nur die größte Onlinenation, sondern auch die Volkswirtschaft mit dem größten Geschäft im Onlinehandel. Und Alibaba beansprucht rund zwei Drittel des lukrativen Marktes für sich.

Allein am sogenannten Singles‘ Day im November, dem größten Shoppingevent in China, hat Alibaba 2018 mehr als 30 Milliarden US-Dollar Umsatz gemacht. Zum Vergleich: Amazon setzte am Cyber Monday in den USA gerade mal 7,9 Milliarden US-Dollar um.

Doch selbst das reicht dem chinesischen Unternehmen nicht mehr. Es will sein Potenzial weltweit ausspielen. Um die neue globale Plattform eWTP rasch durchzusetzen, will sie Alibaba den Staaten kostenlos anbieten. Doch umsonst gibt es natürlich nichts. Im Gegenzug für den Aufbau der Plattform verlangt Alibaba Steuererleichterungen.

Den belgischen Premierminister Charles Michel hat Ma schon mit seiner Charmeoffensive eingefangen. Er traf sich mit dem Regierungschef bereits im Sommer, um den Vertrag einzufädeln. Mit Erfolg. „Ich begrüße die Einführung der eWTP in Belgien und das Engagement von Alibaba zur Verbesserung der Wettbewerbsfähigkeit belgischer und europäischer Unternehmen auf weltweiter Ebene im Rahmen dieser Partnerschaft“, sagte Michel jetzt.

Teil der Absichtserklärung ist es, dass Belgien und Alibaba die Zollverfahren digitalisieren und eine effizientere Warenabfertigung fördern. Von Steuererleichterungen ist noch nicht die Rede, aber das dürfte für Ma der nächste logische Schritt sein.

Chinesischer Botschafter für den weltweiten Onlinehandel

Und Alibaba hat einen mächtigen Unterstützer: den chinesischen Staat. „In China gibt es keine komplette Trennung zwischen Unternehmen und dem Staat“, weiß China-Experte Rotax. „Deshalb ist es nicht vollkommen abwegig, dass Alibaba diesen Vertrag mit Belgien in Abstimmung mit staatlichen Stellen abgeschlossen hat.“

Die enge Verbindung zeigt sich immer wieder: Im November etwa richtete die chinesische Regierung in Schanghai die internationale Handelskonferenz China International Import Expo aus. Mit 2800 Ausstellern aus 130 Ländern sollte sie Chinas Rolle im globalen Handel stärken. Und Alibaba wurde dort als chinesischer Botschafter für den Onlinehandel hofiert.

Auch das Engagement von Alibaba in Europa dürfte sich rasch nicht mehr auf den Export nach China beschränken. „Wenn die Plattform erst mal steht, bietet sie natürlich auch eine sehr interessante Export-Pipeline für chinesische Güter nach Europa“, betont Berater Rotax.

Das sehen auch Praktiker so. „Wir gehen davon aus, dass die Logistikzentren nicht nur für den Export nach China in Betrieb genommen werden“, bestätigt Marcel Münch, der mit seinem Unternehmen DongXii den digitalen Vertrieb für deutsche Mittelständler in China organisiert.

Das Kalkül von Alibaba sei es, damit eine eigene lokale Infrastruktur aufzubauen. Verlierer könnten dann entgegen allen Ankündigungen ausgerechnet die kleineren Hersteller sein. Nach der Erfahrung von Münch sind die bisherigen Plattformen von Alibaba wie TMall Global oder AliExpress wenig auf die Bedürfnisse kleiner Hersteller abgestimmt. Das dürfte bei der eWTP nicht viel anders sein.

Und auch den europäischen Händlern könnte die neue Alibaba-Plattform existenziell gefährlich werden. „Viele Hersteller werden diese Chance nutzen, direkte Geschäftsbeziehungen zu Endkunden in China aufzubauen“, prognostiziert Berater Rotax. Für die Händler sei das ein Signal, dass sie noch mehr neue Services und Mehrwert bieten müssten, den Hersteller und Kunden auf einer reinen Plattform nicht bekommen. „Wenn sie das nicht tun, machen Alibaba und Co. sie langfristig überflüssig.“

Die deutschen Verbraucher zumindest würden Alibaba mit offenen Armen empfangen. In einer repräsentativen Umfrage des Meinungsforschungsinstituts YouGov sagten 48 Prozent der Befragten, sie würden es begrüßen, wenn Alibaba sein Europageschäft ausbaut. Ablehnend reagierten nur 25 Prozent. Die Werbekampagne von Jack Ma hat schon gewirkt.

Österreich bittet Google, Facebook & Co. zur Kasse – ein Vorbild

Im Alleingang wird Wien eine Digitalsteuer einführen. So könnten endlich faire Bedingungen für die Wettbewerber der US-Internetgiganten hergestellt werden. Von Hans-Peter Siebenhaar.

Österreich hat während seiner EU-Ratspräsidentschaft nichts unversucht gelassen, um die Digitalsteuer europaweit einzuführen. Trotz des großen Einsatzes von Bundeskanzler Sebastian Kurz (ÖVP) und seines Finanzministers Hartwig Löger (ÖVP) ist das ehrgeizige Projekt am Widerstand einer ganzen Reihe von Ländern gescheitert – nicht zuletzt auch an Deutschland.

Doch die Alpenrepublik gibt nicht auf, endlich auch die Internetgiganten wie Google, Amazon, Facebook und Apple zur Kasse zu bitten. Bereits im nächsten Jahr, spätestens aber 2021 sollen im Zuge einer großen Steuerreform auch die Konzerne aus dem Silicon Valley endlich angemessen besteuert werden.

Bislang zahlen sie in Österreich und den anderen 27 EU-Mitgliedsstaaten trotz der großen Gewinne, die auf dem Kontinent erwirtschaftet werden, so gut wie keine Steuern. „Das Ziel ist klar: Eine Besteuerung von Konzernen, die online große Gewinne erzielen, aber kaum Steuern bezahlen – wie etwa Facebook oder Amazon“, sagte Kanzler Kurz der „Tiroler Tageszeitung“.

„Die traditionellen Unternehmen zahlen derzeit im Schnitt 23 Prozent Steuer auf ihre Gewinne, die digitale Wirtschaft aber nur acht bis neun Prozent – und die größten Internetfirmen, die zahlen noch weniger. Das ist nicht fair, und das müssen wir schnell ändern“, sagte Finanzminister Hartwig Löger.

Österreich will künftig die Einnahmen aus dem digitalen Werbegeschäft mit drei Prozent zu besteuern. Im Gegenzug senkt Wien die Besteuerung für klassische Reklame von fünf auf drei Prozent, um Waffengleichheit zwischen europäischen und amerikanischen Medien- und Digitalunternehmen zu schaffen. „Wir erwarten uns zusätzliche Einnahmen von 50 bis 60 Millionen Euro von der digitalen Wirtschaft“, hieß es im österreichischen Finanzministerium.

Für die Staatskasse ist die Digitalsteuer ein Nullsummenspiel. Denn die klassischen Unternehmen müssen nach den Plänen künftig ungefähr im gleichen Umfang weniger Steuern zahlen. Die exakte Lösung will die konservativ-rechtspopulistische Regierung in der kommenden Woche im abgeschiedenen Schlosspark Mauerbach im Wienerwald besprechen. Kurz und Löger erwarten aber keine Querschüssen vom rechtspopulistischen Koalitionspartner FPÖ, wie Insider berichten.

Das österreichische Modell besitzt Vorbildcharakter auch für Deutschland. Denn es beendet quasi den jahrelangen unfairen Wettbewerb zwischen klassischen Medienunternehmen und den US-Internetgiganten. Auch Frankreich verlangt seit Jahresbeginn eine Digitalsteuer.

Mit dem Vorpreschen Österreichs wächst der Druck, doch noch zu einer EU-weiten Lösung zu kommen. Manfred Weber, Fraktionschef der konservativen Europäischen Volkspartei (EVP) im Europaparlament, gab sich bei seinem Besuch in Wien zum Jahresauftakt zuversichtlich.

Deutschland drückt sich um ein klares Bekenntnis
„Wenn wir erkennen, dass Internetkonzerne nicht den ordentlichen Anteil zur gesellschaftlichen Finanzierung beitragen, müssen wir aktiv werden“, sagte der CSU-Politiker, der bei den Europawahlen im Mai als Spitzenkandidat der EVP antreten wird. „Egal, ob es anderen passt oder nicht, wir müssen für Gerechtigkeit sorgen.“

Wie so oft gibt es in Europa eine grundlegende Verständigung auf eine Digitalsteuer für die Internetgiganten aus den USA. Aber bei der Umsetzung gibt es zahlreiche Partikularinteressen der Mitgliedsländer, die von Irland über Luxemburg bis nach Ungarn und Tschechien reichen. Das Problem: bei der Digitalsteuer gilt das Prinzip der Einstimmigkeit.

Und Deutschland: Finanzminister Olaf Scholz (SPD) sucht gar eine internationale Lösung in und außerhalb der EU. Der Sozialdemokrat versuchte zuletzt in einem Interview Zuversicht zu verbreiten: „Ich bin ganz zuversichtlich, dass die EU-Finanzminister Anfang nächsten Jahres ein gemeinsames Vorgehen im Hinblick auf die großen Internetplattformen verbindlich beschließen werden. Und zwar für den Fall, dass die angestrebte internationale Verständigung nicht gelingen sollte. Uns geht es nämlich zuallererst um eine treffsichere internationale Lösung, der sich möglichst viele anschließen, denn das ist am wirksamsten.“

Ob das wirklich gelingt, steht allerdings in den Sternen. Deutschland drückt sich um ein klares Bekenntnis oder gar ein Vorpreschen nach österreichischem Vorbild. Zu groß ist offenbar die Angst vor sofortigen Gegenmaßnahmen durch die US-Regierung unter dem protektionistischen Präsidenten Donald Trump.

Google, Facebook & Co. können sich unterdessen die Hände reiben, denn in Deutschland, dem größten digitalen Werbemarkt Europas, werden sie vorerst weiterhin keine großen Steuern zahlen. Österreich können sie angesichts seiner Marktgröße hingegen leicht verschmerzen.

Was Musikstreaming-Dienste unterscheidet

CD und MP3 waren gestern – nun haben die Musikstreaming-Dienste übernommen. Mindestens ein gutes Dutzend Anbieter dürfte es inzwischen geben. Doch worin unterscheiden sich die einzelnen Dienste?

Anhand der Musikkataloge der Dienste ein Urteil über deren Güte zu fällen, ist quasi unmöglich. Denn die Anbieter haben Abermillionen Titel im Angebot. Noch eine Schaufel mehr gibt es tendenziell zum Beispiel bei Soundcloud, das seinen Katalog mit mehr als 120 Millionen Titeln beziffert, weil dort viele Künstler Musik zusätzlich direkt hochladen.

Oder auch bei Googles YouTube Music, das wie das Schwesterangebot Play Music wechselseitig von Kunden beider Dienste genutzt werden kann, erklärt Marinus Martin von Netzwelt.de: „Bei YouTube findet man daher auch Künstler, die auf ‚herkömmlichen‘ Streaming-Plattformen nicht vertreten sind.“

Wenig Preisunterschiede

Mit knapp zehn Euro monatlich bewegen sich fast alle Dienste preislich in einem vergleichbaren Rahmen. Von beispielsweise Deezer, Soundcloud, Spotify oder auch YouTube Music gibt es zudem eine kostenlose Dienst-Variante, bei der Nutzer aber Werbung in Kauf nehmen müssen und die Angebote nicht offline nutzen können.

Zudem gibt es etwa bei Amazon Music Unlimited, Apple Music, Deezer, Google Play Music, Juke, Spotify, Tidal oder YouTube Music auch Familientarife, über die dann meist bis zu fünf weitere Familienmitglieder den jeweiligen Dienst nutzen können. Kostenpunkt dafür: rund 15 Euro im Monat.

Mehr Klangqualität durch Hi-Fi-Option

Wer bereit ist, sogar um die 20 Euro im Monat auszugeben, dem bieten Anbieter wie Deezer, Tidal oder Qobuz eine sogenannte Hi-Fi-Option. Dafür kann man dann Musik im verlustfreien FLAC-Format bei 16 Bit Auflösung streamen – je nach Anbieter aber unter Umständen nicht auf allen Geräten und mit Einschränkungen bei der Offline-Nutzung. Bei Tidal und Qobuz gibt es sogar Aufnahmen beziehungsweise Abos für Musik in Studio-Masterqualität (FLAC mit 24 Bit und 192 KHz).

Experten empfehlen jedoch, zumindest unterwegs auf das Streaming in der besten Übertragungsqualität zu verzichten, falls diese eingestellt werden kann: „Einerseits werden dabei große Datenmengen übertragen, andererseits müssen Interessenten je nach Netzverfügbarkeit am Aufenthaltsort bei höherwertigen Streams auch mit Aussetzern bei der Musikübertragung rechnen“, so Teltarif.de.

In einem Vergleich hat die Stiftung Warentest die Klangqualität des Streamings verschiedener Anbieter mit der von CDs verglichen. „Die Musikstreaming-Dienste können absolut mithalten“, lautet ein Fazit der Tester.

„Selbst auf niedrigster Stufe klingen alle mindestens gut.“ Unterschiede zur CD dürften für die meisten Nutzer kaum hörbar sein – erst recht nicht, wenn man etwa unterwegs mit Kopfhörern Musik hört. Bei den Hi-Fi-Tarifen konnten Experten zwar im Labor tatsächlich einen größeren Frequenzbereich der Musik messen. Die Hörqualität im Test verbesserte sich dadurch aber nicht.

Angebote im Klassik-Genre

Klassik-Liebhaber werden im Prinzip bei allen Diensten fündig. Geht es aber um Kompositionen, die nicht so geläufig sind, tun sich Lücken auf. Und grundsätzlich ist es gerade bei klassischer Musik eher schwer, das Gesuchte zu finden: „Schon wegen der meist dürftigen Metadaten ist es nicht einfach, genau die richtige Einspielung zu finden, insbesondere bei Kompilationen ist häufig nicht verzeichnet, wer Interpret, Dirigent, Orchester, Bearbeiter oder Komponist des Werkes ist“, berichtet Teltarif.de. Für Klassik-Enthusiasten seien daher Spezial-Dienste wie Idagio oder Alpha Play besser geeignet.

Im Prinzip bieten alle Dienste mindestens einen kostenlosen Probemonat an. So kann man herausfinden, wer das Angebot hat, das am besten auf die persönlichen Bedürfnisse zugeschnitten ist. Die Dienste haben tendenziell immer mehr Hörspiele und Hörbücher im Programm – sowohl für Erwachsene als auch für Kinder.

Da die meisten Dienste auch nach Abschluss eines Abos in aller Regel monatlich kündbar sind, spricht nichts dagegen, mehrere Dienste auszuprobieren oder dann und wann zu wechseln.

Wer großen Wert darauf legt, dass bereits vorhandene vernetzte Anlagen oder Lautsprecher den jeweiligen Streaming-Dienst direkt wiedergeben kann, sollte sich vor Abschluss eines Abos vergewissern, welche Dienste von seinem Gerät unterstützt werden.

Was 2018 eingestellt und geschlossen wurde

Das Jahr 2018 brachte nicht nur Erfolgsmeldungen aus der IT-Welt: Mit Spannung hat Golem.de den Niedergang von Google Plus als Konkurrenten zum dominanten Facebook verfolgt. Dieses hat seinerseits durch die Offenlegung des Datenskandals zur Insolvenz des dubiosen Unternehmens Cambridge Analytica geführt. Microsofts deutsche Cloud hat ebenfalls keinen richtigen Anklang gefunden und wird künftig nicht mehr angeboten. Aber auch viele andere Unternehmen, Produkte und Vorhaben mussten eingestellt werden. Wir geben einen Überblick.

Bereits im Januar 2018 mussten Fans der Smartwatch Pebble eine Enttäuschung hinnehmen. Fitbit, der Besitzer der Marke, gab die Einstellung der Pebble-Server bekannt. Bis zum 30. Juni 2018 sollten Nutzer ihre Uhr noch uneingeschränkt verwenden können, bis die Server endgültig abgeschaltet wurden.

Ohne die Serverinfrastruktur können Besitzer einer Pebble diese zwar noch immer nutzen, allerdings sind wichtige Programme wie der App Store, die Spracherkennung und Sicherheitsupdates nicht mehr verfügbar. Eine Hoffnung könnte das Projekt Rebble sein, das den Shop und andere Funktionen wieder zurückbringen soll.

Das Ende von 3G in Taiwan bedeutet für etwa 6,4 Millionen Bürger, dass sie auf einen anderen Tarif wechseln müssen. Dieser Zahl stehen allerdings bereits 22 Millionen Taiwaner gegenüber, die mit LTE im Internet unterwegs sind. Die Abschaltung von 2G-Diensten hatte das Land bereits 2017 durchgeführt. In Deutschland wird diese langsame Technik wohl sogar länger existieren als 3G, da es eine Rückfallebene für VoIP-Anrufe darstellt. Aber auch 3G wird es hierzulande noch ein paar Jahre geben.

  • Zwei Smartphone-Startups müssen schließen
    Der Hersteller des ungewöhnlichen Turing Phone musste im Februar 2018 Insolvenz anmelden. Mehrere Male hatte sich die Veröffentlichung des Smartphones verschoben – zuerst auf Anfang 2016, dann auf den April 2016. Im selben Monat musste auch das britische Startup Wileyfox den Bankrott verkünden. Das Unternehmen stellte recht preiswerte Smartphones her. Die Produkte waren auch nicht das Problem für die 30 Mitarbeiter, sondern offenbar finanzielle Schwierigkeiten des Investors. Dadurch hatten die Briten keine andere Wahl und stellten im Februar ihre Aktivitäten ein.
  • Das letzte Bild von Lytro
    Im März 2018 stellte der Kamerahersteller Lytro die Arbeit ein. Das Unternehmen wurde von Google für geschätzt 25 bis 40 Millionen US-Dollar gekauft. Die Lichtfeldtechnik, durch die Lytro bekannt wurde, soll zwar weiterhin bestehen bleiben, die Marke und dazugehörige Produkte waren für Google aber nicht interessant. Ehemalige Entwickler des Unternehmens arbeiten mittlerweile in verschiedenen Abteilungen.
    Lytro stellte recht spannende Kameras wie die Illum her. Diese konnte anhand des Lichteinfalls Informationen zur Raumtiefe eines Objektes speichern. In der Nachbearbeitung konnten Nutzer die Schärfe entsprechend ändern, so dass entweder der Hintergrund oder der Vordergrund gut zu sehen waren. Das Fazit von Golem.de lautete schon damals: eine spannende Kamera, die aber kein herkömmliches Modell ersetzen konnte und als Zweitgerät einfach zu teuer war.
  • Intel baut keine modische Datenbrille mehr
    Intels Datenbrille Vaunt wurde erst im Jahr 2017 der Öffentlichkeit präsentiert, im April 2018 wurde bekannt, dass der Chiphersteller sein Projekt einstellt. Im Gegensatz zu Produkten wie Google Glass hatte die Vaunt keine integrierten Mikrofone und Kameras, was Datenschutzbedenken aus dem Weg räumen sollte. Das Bild wurde mit einem Laserprojektor auf das Auge geworfen.
  • Ein Ende der Datensammelei durch Cambridge Analytica
    Mit Hilfe von Facebooks fahrlässigem Umgang mit Nutzerdaten konnte das Unternehmen Cambridge Analytica Persönlichkeitsprofile erstellen und damit theoretisch Menschen in Kenntnis deren genauer Vorlieben und – wichtig – Ängste beeinflussen. Diverse Politiker sollen diese Dienste in Anspruch genommen haben, darunter auch der amtierende US-Präsident Donald Trump. Facebooks Chef Mark Zuckerberg musste sich dafür vor Gerichten und Nationen verantworten. Auch die Aktie des sozialen Netzwerkes sank teilweise stark ab.
  • Das Aus für Navigon-Apps
    Weit verbreitete kostenlose Software wie Google Maps sind wohl daran beteiligt, dass der Navigationssystemhersteller Garmin seine Navigon-Apps zu Mitte Mai 2018 komplett eingestellt hat – nach 25 Jahren Produktgeschichte. Die Ankündigung kam recht rasch und hatte nur einen Vorlauf von etwa einem Monat. Allerdings war das Ergebnis in Anbetracht des sich rapide ändernden Markts für Navigationssysteme abzusehen, schließlich haben Besitzer von Smartphones ihr GPS-fähiges Gerät immer dabei.
  • Google-Proteste lassen Militärprojekt auslaufen
    Mitarbeiter bei Google protestierten gegen das Projekt Maven, das in Zusammenarbeit mit dem US-Militär ein Machine-Learning-System für Luftaufklärung realisieren sollte. Einige kündigten sogar ihren Job, um ihren Unmut darüber zu äußern. Erst nahm CEO Sundar Pichai in einem offenen Brief an seine Mitarbeiter dazu Stellung, dann lenkte das Unternehmen ein: Anfang Juni 2018 wurde bekanntgegeben, dass das Projekt bis 2019 auslaufe.
  • WD-Festplattenfabrik geschlossen
    Der Großteil von 13.000 Mitarbeitern war im Juli 2018 ohne Job, denn Western Digital hat zu dieser Zeit seine Festplattenfabrik in Malaysia geschlossen. Gleichzeitig gab das Unternehmen bekannt, seine Flashspeicher-Werke weiter auszubauen. Das Unternehmen konzentriert sich in Zukunft mehr auf diese Technik, die mittlerweile in fast allen mobilen Geräten zum Einsatz kommt.
  • Dawanda gibt auf
    Der Onlineshop Dawanda war eine Alternative zur beliebten Plattform Etsy. Ende August 2018 musste das Unternehmen allerdings aufgeben. Das Unternehmen sah keine Perspektive mehr auf einem Markt, der auch von Ebay und anderen Onlinehändlern wie Amazon dominiert wird. Bereits im August 2017 musste die Firma 60 Prozent ihrer Mitarbeiter entlassen. Die Schließung war folglich nur eine Frage der Zeit.
  • Bei Wimdu geht das Licht aus
    Einst war Wimdu ein Konkurrent von Airbnb: Touristen konnten darüber ebenfalls Ferienwohnungen finden und mieten, Besitzer konnten sie präsentieren. Im September 2018 wurde allerdings bekannt, dass das Unternehmen zum Ende des Jahres 2018 schließt und alle 100 Mitarbeiter entlässt. Dabei waren es die Gründer und Brüder Samwer, die mit einer aggressiven Expansionspolitik eigentlich den Hauptkonkurrenten Airbnb verdrängen wollten.
  • Telltale gehen die Geschichten aus
    Im September 2018 hat der Spieleentwickler Telltale Games einen Großteil seiner 250 Mitarbeiter entlassen. Für das Unternehmen sei es ein unglaublich schwieriges Jahr gewesen und die Zeit sei abgelaufen, sagte Unternehmenschef Pete Hawley. Es ist unklar, was mit noch offenen Spielereihen wie The Walking Dead geschieht. Klar ist, dass es keine künftigen Projekte mehr geben wird.
  • Schluss mit Google Plus
    Einst wurde Google Plus als große Alternative zum Marktführer Facebook ausgelegt. Mit dem Einteilen von Freunden in verschiedene Freundeskreise hatte das soziale Netzwerk bei seiner Veröffentlichung sogar ein Alleinstellungsmerkmal – zumindest bis Mark Zuckerbergs Unternehmen dies teils kopierte. Dennoch konnte die Plattform nie viele Nutzer anziehen und Google kündigte im Oktober 2018 dessen Schließung an.
  • Kepler geht der Treibstoff aus
    Fast zehn Jahre hat das Weltraumteleskop Kepler wichtige Bilder unseres Sonnensystems und darüber hinaus geschossen. Es half bei der Beobachtung von 100.000 Sternen, von denen Forscher fast 2.700 als Planeten identifizieren konnten. Ende Oktober 2018 ging dem Teleskop der Treibstoff aus, so dass es sich nicht mehr zur sich laufend ändernden Position der Erde orientieren kann, um Daten zu senden.
  • Die letzte Cebit war eine Kirmes
    Im Sommer 2018 konnte auch Golem.de auf der komplett umgestalteten Cebit Riesenrad fahren und Bratwurst am Stand essen. Allerdings war eigentlich klar, was sich im November 2018 bestätigte: Die Messe wird 2019 nicht noch einmal stattfinden, war sie mit 78.000 Zuschauern das letzte Mal schon fast nicht mehr wiederzuerkennen. Mit der Cebit 2018 endet eine traditionsreiche Messe, die in der Mitte der achtziger Jahre ihren Anfang nahm.
  • Notebooksbilliger und Medimax sind inkompatibel
    Obwohl Notebooksbilliger und Medimax im September 2018 noch fest entschlossen waren, wird eine enge Kooperation oder sogar eine Fusion nicht zustande kommen, wie der Notebookhändler im November 2018 mitteilte. Notebooksbilliger war der Meinung, dass die beiden Unternehmenskulturen einfach zu verschieden seien.
  • Nvidias langjährige GTX-1000-Serie wird abgelöst
    Geforce-GTX-Grafikkarten wie die GTX 1080 Ti, GTX 1070 und GTX 1060 spielten lange eine dominante Rolle auf dem Grafikkartenmarkt. Seit 2016 produziert Nvidia die Grafikkarten mit Pascal-Architektur. Im November 2018 war es allerdings an der Zeit, die Serie einzustellen. Entsprechend steigen momentan die Preise für die immer selteneren GPUs.
  • Aus für Elektroauto-Startup Faraday
    Obwohl es bisher noch kein offizielles Insolvenzverfahren gibt, stand das Startup Faraday Future schon im November 2018 vor dem Aus. Das Unternehmen musste wegen Geldmangels eine Fabrik schließen, 40 Mitarbeiter entlassen und 60 weitere Arbeiter in den unbezahlten Urlaub schicken. Bis Mitte Dezember 2018 ist dem Hersteller wohl komplett das Geld ausgegangen.
  • Keine Hangouts mehr
    Im Dezember 2018 wurde bekannt, dass es in Zukunft keine Google Hangouts mehr geben wird. Die Messenger-App erhielt bereits seit Mitte 2018 eigentlich keine Updates mehr. Das Ende war daher vorauszusehen. Google wird den Fokus stattdessen auf eine Business-Version des Messengers setzen.
  • Auch die Zeit von Allo ist vorüber
    Nur noch bis März 2019 wird Googles alternativer Messenger-Dienst Allo laufen. Das Unternehmen kündigte das Aus für die Software ebenfalls im Dezember an. Auch Allo wurde seit Mitte 2018 nicht weiterentwickelt. Etwa 50 Millionen Nutzer haben die Software zumindest installiert. Unklar ist, wie viele ihn wirklich genutzt haben – offenbar aber nicht genug. Die Erfahrungen bei der Entwicklung von Allo sollen dem Projekt zugute kommen. Ein wichtiger Bestandteil soll dabei das Kommunikationsprotokoll RCS werden, das SMS ersetzt, sich bisher allerdings nicht wirklich durchsetzen konnte. Das ist bei kostenfreien Alternativen, die über das herkömmliche Internetprotokoll kommunizieren, aber auch kein Wunder.

Tech-Konzerne und Start-ups wenden sich vom Silicon Valley ab

Amazon hat es vorgemacht, Apple und Google folgen. Sie bauen Ableger ihrer Firmenzentralen an der US-Westküste in anderen Teilen des Landes. Hauptsache, weit weg vom Silicon Valley. Amazon errichtet gleich zwei strategische Zentren – eines in New York, das andere nahe der Hauptstadt Washington – für zusammen bislang geschätzte fünf Milliarden Dollar. Arbeitsplätze: wohl um die 25.000 an jedem Standort.

Apple steckt eine Milliarde Dollar ins texanische Austin, eine lebensfrohe und liberale Hochburg im erzkonservativen Texas. Rund 15.000 Arbeitsplätze sollen hier entstehen, kleinere Satelliten mit je 1000 Mitarbeitern sind für Seattle, Culver City und San Diego geplant.

Google aus dem beschaulichen Mountain View hat angekündigt, seine Präsenz in New York massiv aufzustocken. Eine Investition von einer Milliarde Dollar werde die Mitarbeiterzahl dort binnen zehn Jahren auf 15.000 verdoppeln. „Wir wachsen schneller außerhalb der Bay Area (Silicon Valley, San Francisco) als innerhalb“, so Ruth Porat, Finanzchefin des Mutterkonzerns Alphabet, in einem Blogpost.

Auch kleinere börsennotierte Unternehmen und Start-ups sind längst auf den Zug aufgesprungen. Die „San Francisco Business Times“ hat eine Liste von Unternehmen zusammengestellt, die ihre Zentralen ganz aus dem kalifornischen Digital-Tal verlegen oder Erweiterungen in anderen Bundesstaaten aufbauen.

Unter den 32 Namen sind bekannte Firmen wie Slack, der Fintech-Gigant Square, Börsenkandidat Lyft und das Musik-Start-up Pandora. Immer wieder tauchen dabei die Namen Las Vegas, Denver, Austin oder Atlanta auf. Sie folgen damit nur einem Trend, der sich bereits seit Jahren unter den Talenten im Valley deutlich abzeichnet: Nichts wie weg.

Wie die Wanderungsbewegung qualifizierter Arbeitskräfte innerhalb der USA in diesem Jahr verläuft, zeigt ein Blick auf das Karrierenetzwerk LinkedIn. Über 150 Millionen amerikanische Arbeitnehmer haben hier ein Profil, 20.000 US-Unternehmen nutzen die Plattform, um neue Talente anzuwerben.

LinkedIn stellt dafür in einem monatlichen Wanderungsreport zusammen, welche Standorte gerade besonders gefragt sind. Im Monat November zog es pro 10.000 LinkedIn-Profilen 121 Nutzer ins texanische Austin, 97 stellten sich in Denver neuen Herausforderungen und 85 zog es in die Country-Hochburg Nashville. Die Region San Francisco gehört nicht mehr zu den zehn größten Gewinnern der Arbeitsplatz-Migration. Im Gegenteil.

Die Interessenvereinigung „Bay Area Council Advocacy Group“ fühlt jährlich der Wirtschaftsregion San Francisco den Puls. Der Wandel im Vertrauen in die Zukunft ist frappierend. Auf die Frage, ob sie innerhalb der nächsten Jahre aus der Bay Area (San Francisco, Oakland, Silicon Valley) wegziehen werden, antworteten 46 Prozent der befragten mit „sehr wahrscheinlich“ oder „wahrscheinlich“. 2016 waren es noch 34 Prozent.

Überraschend schnell ist dabei die Gesamtstimmung gekippt. Waren 2017 noch 42 Prozent der Meinung, das Valley sei „auf dem richtigen Weg“, waren 2018 gerade noch 25 Prozent dieser Meinung.

„Super-Pendler“ sind mehr als vier Stunden unterwegs
Viele verlassen den Bundesstaat ganz. Hohe Kosten für Lebenshaltung, extreme Preise für Miete und Immobilienkauf, außer Kontrolle geratene Probleme mit Obdachlosigkeit und Drogen in San Francisco oder Los Angeles und hohe Steuern zehren an den Nerven. Wer noch nicht soweit ist, den harten Schnitt mit dem „Golde State“ zu machen und ganz aus Kalifornien wegzuziehen, der lässt sich einiges einfallen, um den Schmerz zu lindern.

Danny Finlay ist einer der „Super-Pendler“, die täglich vier oder sogar mehr Stunden in Kauf nehmen, um zu ihrem Arbeitsplatz und zurück zu fahren. Finlay steht um 4.30 Uhr morgens auf, um aus dem ländlichen Dixon an seinen Arbeitsplatz in einer PR-Agentur in San Francisco zu gelangen.

Den ersten Teil absolviert er mit dem Auto, dann mit dem Bus 45 Minuten bis El Cerrito, wo er den Nahverkehrszug besteigt. Der befördert ihn unter der Bucht von San Francisco hindurch bis ins Herz der Stadt. Der Rest ist ein kurzer Fußmarsch mit dem Kaffeebecher in der Hand.

Der Verwaltungsangestellte Finlay hatte die Wahl, zusammen mit seiner Frau eine enge Dreizimmer-Wohnung in San Francisco für 4500 Dollar im Monat zu mieten, oder in Dixon für 1600 Dollar Hypothekenkosten monatlich ein geräumiges Haus mit vier Schlafzimmern und Pool zu kaufen. Pro Monat kommen 600 Dollar Transportkosten für Benzin, Bahn und Bus dazu. Das sind Zahlen, mit denen man rechnen kann.

Andere versuchen es mit dem Nomadenleben. Reihen von Luxus-Campingmobilen am Straßenrand nahe der Google-Zentrale in Mountain View zeugen von der Wohnungsnot selbst für Top-Verdiener. Diese wären sicher unter den ersten, die sich in Alternativstandorten bewerben würden, wenn Google sie anbietet.

Natürlich bedeutet das nicht, dass bald in San Francisco oder Mountain View Zustände wie in Detroit, der vom Niedergang der Autoindustrie hart getroffenen Metropole, herrschen. Das Brookings Institut hat gerade in einer Studie zusammengetragen, dass die Beharrungskräfte weiter enorm sind.

Während grundsätzlich die Beschäftigung im IT-Sektor überall in den USA ansteigt, konzentrieren sich die vier Kernsektoren, Software, Datenverarbeitung, Systemdesign und Web-Publishing weiter nur auf eine Handvoll Metropolen mit dem Silicon Valley klar an der Spitze. Das könnte an den neuen Feldern Künstliche Intelligenz und Maschinenlernen liegen, die extrem gut bezahlte Experten in selbst die teuersten Städte zieht.

Der Drang nach Denver, Austin oder Nashville ist aber auch eine Flucht des Silicon Valley vor sich selbst. Die erfolgsverwöhnte Branche steckt in einer tiefen Krise. Sexismus-Affären plagten den Taxi-Konkurrenten Uber, bei Facebook wollen die Datenskandale nicht enden, und bei Google sollten Fehltritte wie sexuellen Belästigungen durch Zwangsschlichtungen unter Ausschluss von Gerichten und hohen Abfindungen für die Beschuldigten übertüncht wurden.

Der Versuch von Google, für China schlüsselfertige Kopien seiner Suchmaschine inklusive Zensur zu bauen, war nur der bislang letzte Tropfen, der das Fass zum Überlaufen gebracht hat. Google-Chef Sundar Pichai musste dieses Projekt hochnotpeinlich bei einer Befragung durch den Kongress einräumen. Das Silicon Valley gilt plötzlich nicht mehr als Wegweiser in die Zukunft, sondern als ein toxischer Morast voll von schnellem Geld, Super-Egos und Jobkillern.

Die Wut und eine Abneigung, die schon fast in Verachtung abgleitet, ist so spürbar wie noch nie in den vergangenen Jahren. So treten Geldmanager wie Ross Gerber, Mitgründer von Gerber Kawasaki Wealth, es sei Zeit, die Social-Media-Giganten im Silicon Valley „zahlen zu lassen“ für das, was sie dem Land angetan hätten.

„Wir haben diesen Techmanagern viel zu lange einen moralischen Freifahrschein gegeben“, so Gerber. Er habe die Social-Media-Aktien verkauft. Gerade waren wieder zwei Berichte veröffentlicht worden, die belegen sollen, dass Google, Facebook oder Twitter nur das „absolut nötige Minimum“ getan hätten, um die Vorgaben des US-Senats zur Aufklärung der russischen Einmischung in die US-Präsidentschaftswahlen zu erfüllen. Auftraggeber der Reports war der US-Kongress.

Die Berichte trafen auf Enthüllungen der „New York Times“, Facebook habe jahrelang privilegierten Unternehmenskunden tiefste Einblicke in Nutzerdaten und deren private Kommunikation geliefert. Auch die 72-Jährige US-Musiklegende Cher, eine Frau mit großem politischem Einfluss, wütete zu Wochenbeginn, sie werde ihren Facebook-Account löschen und nicht mehr Google nutzen.

Einer, der zu den großen Namen der Branche gehört, die dem Valley den Rücken gekehrt haben, ist AOL-Mitgründer Steve Case. Sein 150 Millionen Dollar schwere Fonds „Rise of the Rest“, der Aufstieg der Übriggebliebenen, investiert in Start-ups überall in den USA. Die ersten Firmengründungen finanzierte Case in Pikeville (Kentucky), Salt Lake City (Utah), Charleston (South Carolina) oder Austin. Viele junge Top-Talente träumen jetzt davon, hier auf die Liste zu kommen, statt in San Francisco oder Menlo Park zu buckeln.

Jedes Jahr geht Case jetzt mit einem großen blauen Reisebus auf große Tour, hält Start-up-Seminare in kleinen und großen Städten ab und will bei jedem Stopp mindestens ein junges Unternehmen mit einer Anschubfinanzierung von 100.000 Dollar fördern.

So viel Geld bläst man im Valley in wenigen Wochen durch, in der Provinz reicht das für sechs Monate oder mehr. Dabei zieht es den Milliardäre und Provinz-Förderer quer durch ganz Amerika. Ganz Amerika? Nun, jedenfalls fast: Nur um das Silicon Valley und die New Yorker Metropol-Area macht sein Bus einen großen Bogen.

Die Zukunft der Archive: Die hohen Hürden bei der Datenarchivierung

Eine ansteigende Flut digitaler Kulturgüter fordert Archive, Bibliotheken und Museen heraus. Was wird getan, um dieses kulturelle Erbe zu bewahren?

Die Sorge um Datenverlust und der Wunsch, zukunftsfähige Nutzungsmöglichkeiten von Daten und Anwendungen zu entwerfen, treiben auch Archivare, Museumskuratoren und nichtinstitutionelle Aktivisten um. Ende November haben sie sich an der Deutschen Nationalbibliothek in Frankfurt am Main auf einer Konferenz versammelt, um über die „Bewahrung des digitalen kulturellen Erbes“ zu diskutieren. Diese Konferenz ist Ausgangspunkt der vorliegenden dreiteiligen Serie.

Venus von Willendorf vs. Super Mario
Archäologische Funde wie die Venus von Willendorf, Höhlenbilder oder sumerische Keilschrifttafeln bieten auch nach Tausenden von Jahren die Möglichkeit zur Untersuchung vergangener Kulturen. Wesentliche Teile der heutigen Kultur sind jedoch nicht in Stein gemeißelt oder in Ton geprägt. Sie manifestieren sich im zunehmend komplexen, im steten Wandel begriffenen Zusammenspiel von digitaler Hard- und Software, von Datenströmen, Dateiformaten und Netzwerkprotokollen. Was davon wird bleiben und zukünftigen Forschergenerationen die Möglichkeit zur Interpretation bieten? Welche Anstrengungen unternehmen die Kulturbewahrer zur Erhaltung, wo besteht Handlungsbedarf?

Wer diese Fragen angeht, sieht sich mit einer kaum überschaubaren Vielfalt an digitalen Kulturgütern und einer Gemengelage aus konzeptionellen, technischen und nicht zuletzt urheberrechtlichen Fragen konfrontiert. Aktivisten wie der Gründer des Internet Archive, Brewster Kahle, oder Stefano Zacchiroli von Software Heritage lassen sich nicht bange machen, ihr etwas hemdsärmelig anmutender Optimismus scheint notwendig: Kahle strebt an, „das gesamte Wissen der Menschheit“ frei verfügbar bereitzustellen, und Zacchiroli verfolgt das Ziel, „allen Quellcode, der jemals geschrieben wurde zu sammeln, zu konservieren und zu teilen“.

Retrodigitalisierung vs. „born digital“
Ein grundlegendes Merkmal digitaler Archivalien betrifft die Frage, ob diese ursprünglich in analoger Form vorgelegen haben. Das können etwa Digitalisate von historischen Handwerkzeugen und Skulpturen, gedruckten Büchern, Ölgemälden und Bleistiftzeichnungen, 35mm-Filmen, Tonbändern und Schallplatten sein. Man spricht hier auch von Retrodigitalisierung. Inhalte, die, wie Computerspiele, CAD-Daten, Datenbanken und Instagram-Stories, von vornherein digital sind, bezeichnet man als „born digital“.

Speichern ist nicht gleich Archivieren, die Arbeit des Archivars beschränkt sich nicht auf das bloße Befüllen seiner Bestände. Die Konzeption und Bereitstellung von Zugriffsmöglichkeiten und Werkzeugen zur Arbeit mit den Inhalten ist wesentlich, denn: Digitale Archive erleichtern nicht nur den Zugriff aus der Ferne und ersparen so manche Forschungsreise. Sie bieten auch die Möglichkeit, Forschungsfragen mittels datenwissenschaftlicher Methoden anzugehen. Sogenannte digitale Geisteswissenschaften untersuchen etwa Aufkommen, Verbreitungsmuster und Kontexte bestimmter Begriffe in Hunderttausenden von Zeitungsartikeln oder Büchern.

Ohne Metadaten läuft nichts
Ob retrodigitalisiert oder born digital: Unabdingbar ist die Anreicherung der Archivalien mit Metadaten, die etwa technische Eigenschaften und Kontexte abbilden. Die Bedeutung von Kontextinformationen ist schon für Hobbyfotografen unmittelbar einsichtig: Wann, wo und von wem wurde ein Bild gemacht? Das lässt sich nicht ohne Weiteres der Datei selbst entnehmen.

Auf dem Weg ins digitale Archiv müssen Metadaten teils händisch, teils in automatisierten Prozessen hinzugefügt werden. Die Bestimmung von Auswahl und Struktur der Metadaten ist alles andere als trivial, denn sie formiert die Möglichkeiten zukünftiger Forschungsfragen.

Bei born-digital-Inhalten ist zudem häufig eine Migration nötig. Gründe dafür sind zum einen die Vermeidung proprietärer oder veralteter Formate zugunsten solcher, die auf offenen Standards basieren. Zum anderen reduziert Migration die vorliegende Formatvielfalt. Ein Artefakt bleibt also bei der Übersiedelung ins digitale Archiv nicht identisch.

Interpretation und Rekonstruktion
Die bereits erwähnte Venus von Willendorf ist mit einem Alter von etwa 30.000 Jahren einer der ältesten erhaltenen Kunstgegenstände der Menschheitsgeschichte. Die Kalksteinfigur hat diesen langen Zeitraum absichtslos überdauert und ist durch glücklichen Zufall gefunden worden. Die absichtliche, gar organisierte Bewahrung von Wissen und Kultur ist wesentlich jüngeren Datums. Doch auch die Überlieferungsgeschichte etwa von antiken literarischen Texten und Urkunden ist wechselvoll und von Zufall, Vergessen, Verlieren, Verschütten und Wiederentdecken geprägt.

Die Interpretation eines archäologischen Fundes wie einer Keilschrifttafel versucht, den Bedeutungs- und Funktionszusammenhang zu rekonstruieren, in dem dieses Objekt gestanden haben mag. Eine einzelne Diskette mag zwar künftigen Archäologen Anlass zu Überlegungen geben – das Eigentliche, sprich: der Inhalt, bleibt verborgen. Der funktionale Zusammenhang, in dem die Diskette gestanden hat – sprich: Laufwerk, PC, Betriebssystem, Treiber und Anwendung muss man im Prinzip vollständig rekonstruieren, bevor eine tiefer gehende Interpretation überhaupt möglich ist.

Ein Kontinuum technischer Zivilisation
Im Hinblick auf das digitale kulturelle Erbe können wir uns auf keinen Zufall verlassen, absichtslose Überlieferung wird es hier nicht geben. Eine funktionierende Überlieferung ist unabdingbar geknüpft an das Fortbestehen einer Zivilisation, die Digitaltechnik beherrscht. Dieser vielleicht banale Gedanke gewinnt an Tiefe, wenn man sich die Paradoxie vor Augen führt, dass die heute entwickelten Tools zur Archivierung und Bereitstellung digitaler Artefakte selbst digitaler Natur sind. Hinzu kommt, dass die gesamte benötigte Infrastruktur digitaler Archivierung in einer technischen Umwelt operiert, die kontinuierlichem Wandel unterworfen ist und daher beständiger Pflege und Entwicklung bedarf, um in Funktion zu bleiben.

Wenn auch klassische Archive und Bibliotheken bereits Orte von Austausch und Wissensproduktion waren, erleben wir mit dem digitalen Wandel eine Dynamisierung dessen, was ein Archiv sein kann und sein sollte. Digitale Archive prozessieren fortlaufend die in ihnen gespeicherten Informationen, fortlaufend sind neue Tools zum Abruf und zur Verarbeitung der Daten in Entwicklung. Ein digitales Archiv, das seine Prozesse nicht beweglich hält und zukünftige Entwicklungen nicht adressiert, ist mittelfristig so gut wie tot.

Freiburger Datenforensik
Einige der eben abstrakt beschriebenen Herausforderungen demonstrierten zwei Konferenzteilnehmer äußerst plastisch an konkreten Beispielen. Dirk von Suchodoletz (Rechenzentrum der Universität Freiburg) stellte ein datenforensisches Projekt vor. Er zeigte, mit welchen Schwierigkeiten Forscher zu kämpfen haben, wenn sie sich mit digitalen Karteileichen konfrontiert sehen, die einen geordneten Archivierungsprozess verpasst haben.

Gegenstand der Bemühungen war ein Konvolut von 17 8-Zoll Disketten aus einem sportmedizinischen Forschungsprojekt der Achtzigerjahre. Zum Erstellungskontext aus Soft- und Hardware lagen keine Informationen vor, geschweige denn ein passender PC nebst Laufwerk und entsprechenden Treibern.

Ein originalverpacktes Laufwerk wurde per Ebay beschafft, zudem ein älterer PC mit Disketten-Controller. Ein aktiver Adapter vom US-Hersteller D Bit komplettierte das Setup, das mit einem Linux System und Tools wie BitCurator und Linux Disk Utilities bestückt wurde.

Auf der Suche nach einem Signal
Erste Tests mit diesem Setup und sicherheitshalber einer unbeschriebenen Diskette fielen ernüchternd aus. Zwar regte sich das Laufwerk, aber essentielle Kommandos brachen mit Fehlermeldungen ab. Immerhin zeigte eine Messung per Oszilloskop direkt am Schreib- und Lesekopf des rotierenden Laufwerks ein ermutigend strukturreiches Signal auf den fraglichen Disketten.

Nach einigen weiteren erfolglosen Versuchen mit Catweasel und anderen Tools gelang dem Elektrotechniker Willibald Meyer vom Rechenzentrum der Durchbruch: Anhand von mit KryoFlux extrahierten Magnetisierungsmustern konnte er das tatsächliche Aufzeichnungsformat und die Struktur der Sektoren auf den Disketten identifizieren.

Schlussendlich konnten die auf den Disketten vorhandenen Textdateien gelesen werden. Die Entschlüsselung der Forschungsdaten hingegen stellte sich als ein unlösbares Problem heraus. Dieses Scheitern verweist auf ein verbreitetes Problem bei explizit für Forschungsprojekte entwickelten Anwendungen und Dateiformaten mit mangelhafter oder fehlender Dokumentation.

Christian Keitel vom Landesarchiv Baden-Württemberg bot Einblicke in den Umgang staatlicher Archive mit dem Thema Digitalisierung. Außerdem nannte er einige konkrete Beispiele für schwierige Migrationsprojekte, etwa bei Datenbanken: „Wenn man etwa einen Komplex von 700 Tabellen bekommt, die zahlreiche Verknüpfungen aufweisen, und diesen in künftige Formate überführen will, weil man der Meinung ist, mit Oracle oder mit Db2 lässt sich die Langzeitarchivierung nicht so gut machen: Dann ahnt man, das Komplexität ein Problem ist. Nun sind diese Systeme nicht allein. Sie sind verknüpft mit vielen anderen Systemen, die ihrerseits auch gerne mal aus hunderten von Tabellen bestehen.“

Damit nicht genug: Die Systeme tauschen Daten miteinander aus. Vorgaben wie die Gewerberegisterordnung definieren zudem, welche Behörden Abzüge unterschiedlicher Vollständigkeit bekommen. Diese Behörden wiederum verändern die Daten und vermischen und verknüpfen sie mit Daten aus anderen Quellen. In diesen Prozessen sind auch proprietäre Anwendungen verschaltet. „Spätestens jetzt hat die Angelegenheit einen Komplexitätsgrad erreicht, die eine Erhaltung in Gänze unmöglich macht. Wir müssen uns Fragen nach Bewertung und Auswahl stellen.“

Ausblick
Angesichts der von Keitel und von Suchodoletz präsentierten eindrücklichen Beispiele möchte man der Forderung von Peter Leinen (Deutsche Nationalbibliothek) zustimmen: „Wir sollten die gesamte Entwicklung unserer IT auf negative Folgen für die langfristige Bewahrung der Datenbestände prüfen.“

Es wird deutlich, dass proprietäre Formate und Anwendungen ein kapitales Problem für die digitale Langzeitarchivierung darstellen – ein Gedanke, der Wasser auf die Mühlen all jener ist, die konsequenten Einsatz von Open Source im öffentlichen Dienst fordern.

Auf der Konferenz war allenthalben der Wunsch nach mehr Kooperation und Erfahrungsaustausch zwischen den Akteuren der Digitalen Langzeitarchivierung zu vernehmen. Im deutschen Sprachraum ist hier der Kooperationsverbund Nestor aktiv. Kooperation ist in der Tat angebracht, denn so fruchtbar die aktuelle Vielfalt an Bemühungen ist: Langfristig scheinen allgemeingültige Standards notwendig, etwa für Archivierungsprozesse, Dokumentation von Suchwerkzeugen und die Struktur von Metadaten.

In den weiteren Teilen dieser Serie wird es um Web- und Quellcodearchivierung, Computerspiele, Emulatoren und die funktionale Instandhaltung von historischer Hardware gehen.

Das Orakel weiß es

Der politischen Meinungsforschung attestierte Hans Magnus Enzensberger einst eine „strukturelle Ähnlichkeit mit den mantischen Praktiken der Alten Welt“. Es sei „unmöglich zu sagen, welchen Anteil am Orakelspruch die Gottheit und welchen die Priesterschaft“ habe. Jüngste Skandalstudien begründen Zweifel, ob sich daran bis heute viel geändert hat. Das Berliner Unternehmen Botswatch teilte vor kurzem mit, dass 28 Prozent aller deutschsprachigen Tweets in der Debatte um den Migrationspakt von „Social Bots“ stammten, also buchstäblich von Robotern ohne menschliches Dahinter geschrieben worden seien. Die Maschinen hätten Propaganda-Inhalte so stark popularisiert, dass man von einer manipulierten Debatte sprechen könne. Die Botschaft verbreitete sich schnell, gerade in einem öffentlichen Diskurs, der Begriffe wie „Fake News“ oder „alternative Fakten“ längst ins Repertoire aufgenommen hat. Auch Politiker beriefen sich auf die Ergebnisse, um vor der Beeinflussung demokratischer Verfahren zu warnen.

Aber was ist hier Tatsache, und was ist Fiktion? Der Online-Analyst Luca Hammer beklagt, dass die Studie nicht einmal in Auszügen einsehbar sei, was „die Ergebnisse wertlos“ mache. Hammer untersucht selbst regelmäßig soziale Netzwerke und betont, dass es keine zuverlässige Definition dessen gibt, was als „Social Bot“ gekennzeichnet werden kann. Darunter fallen je nach Methode auch Partei-Accounts, die Nachrichten ihrer eigenen Funktionäre automatisch weiterverbreiten, oder konventionelle Medien, die Eilmeldungen durchgeben. Tatsächlich sucht man bei Botswatch nach einer erklärenden Veröffentlichung oder gar einer Offenlegung der Rohdaten vergebens. Es handelt sich um Geschäftsgeheimnisse. Das Unternehmen teilt auf Nachfrage dieser Zeitung mit, dass es kein „wissenschaftliches Institut“, sondern „ein privatwirtschaftlich organisiertes Cyber Intelligence Unternehmen“ sei.

Aber wie viel Glaubwürdigkeit ist solchen privaten Studien zuzumessen? Viele Medien präsentierten die Ergebnisse der Firma wie Tatsachen und verpassten der Analyse das Gütesiegel „wissenschaftlich“, ohne das grundlegende Problem privater Datenerhebung anzusprechen: Wissenschaft ist ihrem Wesen nach öffentlich. Nur methodische Transparenz kann sicherstellen, dass sich hinter wohlklingenden Pressemitteilungen keine undurchschaubaren Orakelsprüche, sondern nachvollziehbare und saubere Arbeiten verbergen. Das fällt dem akademischen Betrieb schon schwer genug. Die Privatforscher verzichten darauf aus kommerziellem Interesse.

Dieser Umstand treibt auch in der Umfrageforschung Blüten. Die Institute Forsa, Infas und die Forschungsgruppe Wahlen legten vor einigen Wochen beim Deutschen Presserat gegen die Verwendung von Umfragen ihres jungen Konkurrenten Civey Beschwerde ein, weil dessen Ergebnisse nicht repräsentativ seien. Civey greift, anders als die herkömmlichen Institute, nicht auf klassische Zufallsstichproben in Telefon- oder Straßenbefragungen zurück, sondern rekrutiert für seine Umfragen freiwillige Teilnehmer im Internet auf nicht zufälliger Basis. Um die dadurch entstehenden statistischen Fehler auszugleichen, finden komplizierte Quoten- und Gewichtungsverfahren statt, die garantieren sollen, dass die Antworten ungefähr denen der Gesamtbevölkerung entsprechen. Der Presserat beantwortete die Beschwerde mit dem Hinweis, dass „eine eigene wissenschaftliche Prüfung der Umfragemethodik von Civey“ den Journalisten „nicht abzuverlangen“ sei. Auch wenn die Begründung der Ablehnung plausibel klingt, so beschreibt sie doch einen rein hypothetischen Fall. Denn eine wissenschaftliche Überprüfung der Wahlumfragen ist aufgrund der Geheimhaltung des statistischen Vorgehens sowieso unmöglich. Das gilt noch für die Mehrheit der Beschwerdeführer selbst. Mit Ausnahme der Forschungsgruppe Wahlen veröffentlichen auch sie keine Rohdaten oder Gewichtungsfaktoren und bauen auf ihre öffentliche Glaubwürdigkeit.

Dass die Herkunft eines Orakelspruchs nicht überprüfbar ist, macht ihn noch lange nicht falsch. Und tatsächlich versuchen die meisten privaten Meinungsforscher öffentlich zumindest grob anzudeuten, welche Erhebungsverfahren sie verwenden. Immer häufiger geben sie die Fehlertoleranz an, auch wenn das die Eindeutigkeit der bunten Balkendiagramme mindert. Darüber hinaus zeigt ein Vergleich der Vorwahlumfragen mit den tatsächlichen Wahlergebnissen, dass die Schätzungen nicht so weit danebenliegen, wie häufig angenommen wird. Teilweise sind sie sogar recht präzise.

Wenn in den kommenden Jahren der Trend zum Datenjournalismus anhält, dürfte sich das Problem verschärfen. Die Öffentlichkeit und die Medien kommen dann kaum mehr an der Aufgabe vorbei, politische Studien mit öffentlichkeitswirksamen Ergebnissen einzuordnen, zu kritisieren und im Zweifel auch wissenschaftlich zu überprüfen. Auch die privaten Forschungsunternehmen müssen diesem Bedürfnis nach Transparenz nachkommen, wollen sie nicht die Glaubwürdigkeit ihrer statistischen Verfahren gefährden. Selbst die Orakelsprüche der Pythia litten zu späteren Zeiten bei aller Beharrlichkeit unter christlichem Zweifel, bis sie zu Legenden wurden – und schließlich zum Gegenstand wissenschaftlicher Forschung.

Hat der Spiegel ein Compliance-Problem? / Debatte um Verantwortung für Relotius-GAU

Während der Relotius-Fälschungsskandal den Spiegel und die Medienwelt auf der großen öffentlichen Bühne in Atem hält, bahnt sich hinter den Kulissen zusätzlicher Ärger an. Ein mögliches Compliance-Problem steht im Raum. Es formiert sich Kritik an drei Köpfen des künftigen redaktionellen Führungsteams; bei zweien spielt der Relotius-Fall eine Rolle. Anderes dagegen riecht eher nach Schlammschlacht.

Im Januar soll die neue dreiköpfige Chefredaktion um Steffen Klusmann ihre Arbeit aufnehmen. Und in der zweiten Führungsebene rund zehn Kollegen als Leiter der neu gebildeten ressortübergreifenden Funktionen – anstelle der bisherigen Vize-Chefredakteure. Etwa ein Dutzend Köpfe bestimmen also ab 2019 die redaktionellen Geschicke des Spiegel.

Einer von ihnen ist die bisherige Print-Wirtschaftsressortleiterin Susanne Amann. Sie soll im neuen Führungsteam einer von zwei „Managing Editors“ werden: Als eine Art redaktionelle Change-Managerin soll sie die Redaktionsfusion antreiben und sich auch im Alltagsgeschäft ressortübergreifend um effiziente Abläufe, Kosten und Personalplanung kümmern. Dass ausgerechnet Amann in ihrem neuen Job eine Etage höher steigt, ruft interne Kritiker auf den Plan. Der Grund: Amann ist die einflussreiche Sprecherin der gewählten fünfköpfigen Geschäftsführung der Mitarbeiter KG, der Hauptgesellschafterin des Verlags (50,5 Prozent).

In dieser Funktion spielte sie eine wichtige Rolle bei der Absetzung des Ex-Chefredakteurs Klaus Brinkbäumer – und wurde jetzt von Nachfolger Klusmann befördert. Diese möglichen Rollenkonflikte sind beim Spiegel zwar so alt wie dessen Mitarbeiterbeteiligung selber: über 40 Jahre. Schon immer bestimmten hier Mitarbeiter-Gesellschafter über das Schicksal von Chefredakteuren und Geschäftsführern, die im Berufsalltag ihre Chefs sind.

Der Aufstieg Amanns jedoch könnte heikler sein. Kritiker nennen den möglichen Grund: In ihrem neuen Job als Managing Editor habe sie strukturverändernde Befugnisse – und genau die seien mit ihrem KG-Amt nicht zu vereinbaren. Als Gesellschaftervertreterin würde sie ihre Arbeit quasi selber kontrollieren, heißt es. Wegen solcher drohender Befangenheiten schließt der KG-Vertrag aus, dass Geschäftsführer, Verlagsleiter, Prokuristen, Chefredakteure und deren Stellvertreter zugleich KG-Vertreter sein können. Doch gilt das auch für die neue zweite Redaktionsebene, früher die Vizes, künftig Amann und Co?

Die Kritiker sagen: Ja! Ein KG-Amt sei nicht mit der neuen Funktion eines Managing Editors zu vereinbaren, daher müsse Amann es niederlegen. Sie berufen sich dabei auf ein Papier des Juristen und langjährigen Spiegel-Autors Thomas Darnstädt, der selber bis 2007 Sprecher der Mitarbeiter KG war. Auf den vier Seiten heißt es, Amanns künftige Funktion unterliege (wie früher die Vizes) dem unmittelbaren und alleinigen Zugriff der Chefredaktion, sei dieser „in besonderer Loyalität verpflichtet“ und umfasse mit Posten wie Etats, Personal und Veränderungsprozess auch Chefredakteurs-ähnliche Aufgaben – sowie Aufgaben, für die sich die Gesellschafter „die Letztentscheidung vorbehalten haben“. Hier könnte es laut Darnstädt also zu Interessenskonflikten zwischen beiden Ämtern kommen.

Deshalb müsse Amann mit der Übernahme ihres neuen Jobs als Vertreterin der Mitarbeiter KG ausscheiden; „für eine Wiederwahl dürfte sie zudem nicht kandidieren“, schreibt Darnstädt. Und weiter: „Sollte Frau Amann nicht von sich aus eine Erklärung über ihr Ausscheiden abgeben, kann sie von jedem stillen Gesellschafter dazu mit Fristsetzung aufgefordert werden.“ Dem Vernehmen nach haben dies Anfang vergangener Woche 20 bis 30 (hier unterscheiden sich die Angaben) der rund 250 Print-Redakteure getan. Da die erwähnte Frist angeblich zwei Wochen beträgt, hieße dies, dass sich Amann bis ungefähr 2. Januar erklären müsste. Und wenn nicht? „Sollte die Frist ungenutzt verstreichen, wäre zunächst ein Schiedsgerichtsverfahren einzuleiten“, so der Jurist. Danach könnte eine Feststellungsklage vor dem Landgericht folgen, die sich, begleitet von einem „erheblichen Öffentlichkeitseffekt“ (Darnstädt), über Jahre hinziehen könne.

Hier zeigen die Kritiker ihre Waffen. Dabei geht es ohnehin nur noch um zwei, drei Monate, denn spätestens im März wählen die Spiegel-Mitarbeiter turnusgemäß eine neue KG-Spitze. Mindestens zwei der fünf KG-Chefs treten nicht mehr an; Amann hatte sich Ende November noch nicht äußern wollen. Insofern dürften die aktuellen Rücktrittsforderungen vor allem dazu dienen, ihr die Lust auf eine neue Kandidatur von vornherein zu verleiden. Dann würden drei der fünf Köpfe im Machtzentrum des Spiegel neu besetzt. Dies dürfte den eingeleiteten Redaktionsumbau zwar nicht grundsätzlich umkehren. Wohl aber könnte es von manchen Kritikern gewünschte Kursänderungen oder Tempoverlangsamungen zur Folge haben.

An dieser Stelle ein Wort zur besagten Opposition. Von außen erscheint sie als heterogene Gruppe: Kritiker der Redaktionsfusion (die „Zeit“ mache es schließlich anders). Gegner des Eintritts der Onliner in die KG, vulgo: Besitzstandswahrer. Oder Befürworter der Onliner-Integration, die nur gerne befragt worden wären. Kritiker der neuen Chefredaktion. Freunde des geschassten Vorgängers Brinkbäumer. Kollegen, die mit Amann vielleicht eine Rechnung offen haben oder ihr den vermeintlich ausgekungelten Aufstieg nicht gönnen. Aber eben auch: Kollegen, die sich um die Corporate Governance sorgen – zumal beim Spiegel, der in seiner Berichterstattung selbst so unerbittlich mögliche Vetternwirtschaft in Politik und Unternehmen anprangert.

Dabei bleibt unklar, wer Darnstädt um das intern kursierende Argumentationspapier gebeten hat; die Rede ist von einem Kreis von Ressortleitern. Darnstädt selber will sich zu allem nicht äußern. Angeblich hat sich auch die fünfköpfige KG-Geschäftsführung zerstritten: Autor Martin Doerry und Dokumentar Thomas Riedel sollen Amann zum Amtsverzicht aufgefordert haben; die beiden Vertreter der Verlagsseite (Vize-Personalchef Carsten Türke und Produktmanager Johannes Varvakis) hätten, mit Amann selber, dagegen gestimmt – und stattdessen für ein „Gegengutachten“, das die Compliance-Bedenken prüfen soll. Damit ist dem Vernehmen nach Kai Bandilla beauftragt, Partner der Hamburger Kanzlei Heuking Kühn Lüer Wojtek. Er berät die amtierende und die Vorläufer-KGs des Spiegel seit vielen Jahren. Kollegen berichten, Amann habe gesagt, sie wolle ihre Entscheidung von diesem Gutachten abhängig machen. Die KG-Chefin war bisher nicht zu erreichen.

Derweil wird auch die Beförderung von Ullrich Fichtner zum Co-Chefredakteur debattiert. Und die von Matthias Geyer zu einem der „Blattmacher“, die Hefte und Website konzipieren und redigieren sollen. Fichtner, damals Leiter des Gesellschaftsressorts, hatte den nun als Fake-Reporter entlarvten Claas Relotius 2014 zum Spiegel geholt, war dessen Chef und hat seine Arbeiten betreut, so wie seit 2016 Geyer. Hätten beide, Fichtner und Geyer, etwas merken müssen? Inwieweit tragen sie zumindest eine politische Verantwortung? Waren sie bei Relotius‘ tollen Texten, die außerdem womöglich politisch erwünschte emotionale Wortbilder malten (US-Kleinstädte mit hinterwäldlerischen Trump-Wählern und syrische Kriegskinder, die von Angela Merkel träumen) bei nicht belegten Aussagen weniger kritisch als sonst? Hätte Relotius schon 2017 entlarvt werden können, wenn seine Chefs auf Einwände von Spiegel-TV-Kollegen gehört hätten?

Geyer und – als designierter Co-Chefredakteur – Fichtner waren jetzt die ersten, die von dem Verdacht erfuhren. Meint Juan Moreno (Relotius‘ Kollege, der dessen Fälschungen intern zunächst gegen Widerstände aufgedeckt hatte) diese beiden, wenn er sagt, seine Chefs hätten ihm anfangs „schlichtweg nicht geglaubt“? Dass er gegen Wände gelaufen sei? Und warum hat es offenbar vier Tage gedauert, bis Fichtner und Geyer nach Relotius‘ Geständnis die amtierende Chefredaktion informiert haben? In Bild erklärt eine Spiegel-Sprecherin dies mit der „turbulenten Zeit des Übergangs von einer auf eine andere Führungsmannschaft“.

Unwahrscheinlich ist es, dass Moreno die amtierende Chefredaktion meint, also die Vizes Susanne Beyer, Dirk Kurbjuweit und Alfred Weinzierl, die seit Brinkbäumers Abgang im September die Geschäfte führen. Klusmann tritt erst im Januar an – musste aber schon vor Weihnachten viele Scherben aufkehren und die Aufklärung starten. Derweil erhält Fichtner für seine essayistische Rekonstruktion, mit der Spiegel Online die Aufarbeitung startete, viel Lob – aber auch grundsätzliche Formatkritik von Journalistenkollegen, mitunter aus dem eigenen Haus.

„Wer Verantwortung zu tragen hat, wird sie tragen“, kündigte Klusmann vor Weihnachten auf Spiegel Online in einem Brief an die Leser an. Eine Aufklärungskommission werde im Januar ihre Arbeit aufnehmen, „hin zu einer Neuaufstellung“ der Organisation oder Abläufe.

Auch Brinkbäumer, der Relotius 2017 fest eingestellt hatte, wird intern bei der Ursachensuche genannt. Tenor: Unter anderem am Fall Relotius sehe man, dass es ein Fehler gewesen sei, so großes Gewicht und interne Anreize auf „bloß hübsch geschriebene Geschichten“ zu legen. Tatsächlich lautete einer der Kritikpunkte am früheren Chefredakteur, er erkenne und fördere edel verfasste Essays, Reportagen oder „Szenische Rekonstruktionen“ eher als investigative Storys. Nachfolger Klusmann dagegen gilt als einer, der mehr Erklärstücke und „härtere“ oder exklusive (Hintergrund-) Geschichten rund um Nachrichten will. Aber natürlich: Auch Brinkbäumer ist von Relotius betrogen worden. „Einen Verdacht hatte ich nie“, schreibt er auf Facebook.

Es „lohnt sich, über die Form der Reportage und ihre Versuchungen noch einmal nachzudenken“, erklären Klusmann und Kurbjuweit jetzt, „ebenso wie über die vielen Journalistenpreise, die den Ehrgeiz anstacheln, aber nicht immer in einer gesunden Form“. Relotius‘ Geschichten seien „totaler Zeitgeist“ gewesen, meint Moreno. „Die Reportage hat sich in den letzten Jahren massiv Richtung Kurzgeschichte, Richtung Literatur entwickelt.“

Zurück zur neuen Führung. Neben Fichtner, Geyer und Amann werden weitere Fälle aus der Riege der künftigen Chefs und zweiten Ebene geraunt – hier geht es indes weniger um KG-Satzungen oder journalistische Verantwortung, sondern um Gerüchte. Sie haben zu tun mit früheren Reisespesen, die angeblich auf Privatreisen entstanden und von damaligen Vorgesetzten gedeckt oder nicht erkannt worden seien. Nachzuprüfen ist das an dieser Stelle nicht. Es zeigt aber: An der Ericusspitze haben sich, neben allem anderen, neue Konfliktlinien aufgetan.

Der riskante Netflix-Plan der Videospielindustrie

Spielestudios testen Abo-Modelle für Blockbuster-Titel. Sie wollen Zocker langfristig an sich binden und so das finanzielle Risiko von Entwicklungsflops minimieren. Ein gewagtes Geschäftsmodell.

Auf den verschneiten Hügeln über dem Fjord tobt eine virtuelle Schlacht um Hafenanlagen: Norwegische Widerstandskämpfer schießen auf Wehrmachtssoldaten, grelle Explosionen leuchten im Schnee wider, Kugeln pfeifen durch die Luft, Flugzeuge werfen Bomben – der diesjährige Computerspielblockbuster „Battlefield V“ will den Zweiten Weltkrieg simulieren und ist zumindest grafisch eine Wucht. Der gerade erst veröffentlichte Titel des Computerspiel-Publishers Electronic Arts dürfte unter vielen Weihnachtsbäumen gelandet sein.

Unter dem sperrigen Namen vermarktet der Publisher eine Art Netflix für Computerspiele. Wer 14,99 Euro pro Monat oder 99 Euro pro Jahr bezahlt, dem räumt das Studio unbegrenzten Zugriff auf die neuesten Blockbustertitel ein: Neben „Battlefield V“ sind auch die Sporthits „Fifa 19“ und „Madden 19“, die „Sims 4“, „Star Wars: Battlefront“ und „Need for Speed“ im Abonnement dabei, zudem über 150 ältere Spieletitel des Studios.

Für Electronic Arts ist das Abonnement auf den ersten Blick ein unternehmerisches Wagnis: Top-PC-Spiele wie „Fifa“ oder „Battlefield“ kosten im Handel mindestens 40 Euro, ältere Titel werden auf digitalen Publishing-Plattformen wie Origin von Electronic Arts oder dem Weltmarktführer Steam des Studios Valve für 10 bis 20 Euro pro Titel verkauft. Angesichts dessen erscheint der Abo-Preis als günstig. Dennoch setzen nicht nur Electronic Arts, sondern auch Microsoft, Sony und Activision Blizzard auf das Abo-Modell, haben vergleichbare Mietangebote für ihre Spitzentitel im Markt. Lediglich der französische Publishing-Gigant Ubisoft zögert noch.

110 Dollar geben PC-Spieler im Schnitt pro Jahr für ihr Hobby aus, das ergab eine Studie der Digitalunterhaltungsanalysefirma EEDAR aus dem Frühjahr. Gelingt es einem Studio, einen Spieler per Abonnement an sich zu binden, dann sichert es also fast dessen komplettes Gaming-Budget. Gleichzeitig verstetigt sich das Einkommen der Studios – sie sind nicht mehr so stark vom Erfolg einzelner teurer Blockbustertitel abhängig und verwerten ihre Bibliothek aus älteren Spieletiteln, die längst nicht mehr im Ladenregal liegen, effizienter.

Auch die Spieler sind längst daran gewöhnt, ihre Spiele nicht mehr physisch zu kaufen – 2017 wurden erstmals mehr PC-Spiele per Download verkauft als physisch im Laden als Datenträger oder Box mit Download-Code. Dementsprechend sieht Electronic-Arts-CEO Andrew Wilson die Game-Abonnents als Schlüsselprodukt für die Weiterentwicklung der Branche: Sie seien „die größte Disruption“ des Spielemarkts der gesamten Dekade, sagte Wilson auf der Spielemesse E3 in Los Angeles im Sommer.

Die Umsatzentwicklung gibt ihm recht: Zwei Milliarden Dollar nahm der Konzern über die sogenannten Live Services im Geschäftsjahr 2018 ein, 30 Prozent mehr als im Jahr davor. Derweil stürzten die Verkäufe von physischen Spieleboxen um 17 Prozent ab.

Auch die Anleger lieben den Gedanken eines stetigen Abonnementeinkommens à la Netflix: EA konnte an der Börse in den vergangenen fünf Jahren von 7 auf mehr als 23 Milliarden Dollar zulegen, im Sommer kratzte der Publisher gar an der 45-Milliarden-Dollar-Bewertung. Activision Blizzard legte von 12 auf über 35 Milliarden Dollar Börsenwert zu.

Nvidia schickt Hardware-Power aus der Cloud
Gleichzeitig ändert sich auch auf der Hardware-Seite das Geschäftsmodell: Bislang kosten aktuelle Spielekonsolen zum Marktstart zwischen 400 und 500 Euro, ein Spiele-PC kostet leicht über 1000 Euro – relativ hohe Eintrittshürden gerade für junge Spieler oder Gelegenheits-Gamer, die lieber auf ihren Mobiltelefonen zocken. Doch auch die Hardware kommt seit diesem Jahr erstmals ebenfalls per Abonnement aus der Cloud zum Spieler.

Der Grafikkartenweltmarktführer Nvidia startete zu Anfang des Jahres den weltweiten Beta-Test seines Dienstes „Geforce Now“. Der Konzern überträgt die rechenaufwendige Simulation der Spielewelten von seinen eigenen Servern in die Cloud und streamt die Spiele per Videostream direkt auf die Geräte der Spieler. Diese benötigen dafür lediglich einen einfachen Laptop oder einen leistungsschwachen Office-PC und eine schnelle Internetleitung. Die Investition in die teure Spiele-Hardware entfällt.

Wie viel Nvidia nach Abschluss der Beta-Phase für den Dienst verlangen will, ist noch offen – zur Präsentation deutete der Konzern an, der Dienst werde spielzeitabhängig zwischen einem und gut zwei Euro pro Stunde kosten. Ob auch eine Flatrate wie beim Dienst Netflix geplant ist, lässt Nvidia bislang offen.

Wer das Abo kündigt, verliert alle Fortschritte
Doch die Spielestudios gehen davon aus, dass durch das Streaming aus der Server-Cloud die Eintrittshürden so weit sinken, dass sie eine deutlich größere Zielgruppe erreichen können: Es werde nur noch eine Konsolengeneration auf den Markt kommen, danach werde nur noch gestreamt, sagte Chris Early, Topmanager beim französischen Spielegiganten Ubisoft, im Sommer bei einer Veranstaltung des Content-Delivery-Dienstleisters Akamai. Die entsprechende Software werde künftig einfach in jedem Fernseher und jeder Streaming-Box als App ausgeliefert, ähnlich wie heute Netflix oder YouTube.

Doch Early zweifelte zugleich daran, dass die Studios langfristig durch die Abonnements mehr Geld einnehmen als durch den Verkauf der Titel. Seine Zweifel machen auf den zweiten Blick Sinn: Abonnements schließen diejenigen Hardcore-Spieler ab, die dadurch Geld sparen – und also vermutlich pro Jahr deutlich mehr als die durchschnittlichen 110 Dollar in Spiele investieren. Fallen sie als Käufer weg, könnte der Markt insgesamt Umsatz verlieren, fürchtet Ubisoft. Es fehle eine neue Monetarisierungsstrategie.

Diese scheint EA jedoch bereits gefunden zu haben: Durch den Verkauf von Zusatzinhalten im Spiel generiert der Konzern bereits jetzt erhebliche Zusatzeinnahmen. Gleichzeitig bindet der Anbieter so seine Abonnenten an sich. Denn wer das Abo kündigt, verliert auch den Zugriff auf seine Spiele – und damit auf alle Spielfortschritte, die er bislang erreicht hat.

Trendforscher Horx: Künstliche Intelligenz wird überschätzt

Der Trend- und Zukunftsforscher Matthias Horx hält das Thema Künstliche Intelligenz für ziemlich überschätzt. Es sei „eine Art Fetisch geworden – ein Hype, der gefährliche Illusionen schafft“, sagte der Soziologe und Leiter des Zukunftsinstituts in Frankfurt am Main. „Die meisten realen Probleme sind viel zu komplex und „lebendig“, als dass sie von Datensystemen gelöst werden können.“ Das gelte auch fürs autonome Fahren.

Es sei Zeit für eine „digitale Ehrlichkeit“: „Computer und Roboter können weder die Pflege regeln, noch Armut mildern, noch den Verkehr entstauen. Dazu brauchen wir intelligentere soziale, humane Systeme.“

Horx: „Social Media macht Menschen süchtig nach Bestätigung“
Die Social-Media-Kanäle sieht Horx in einer digitalen Krise. „Die sozialen Medien machen Menschen süchtig nach sozialer Bestätigung. Der „Like“-Button wirkt auf die Seele etwa so wie Zucker auf den Organismus“, sagte er. „Aber das sind leere seelische Kalorien. Sein Leben auf dem Netz auszubreiten, führt irgendwann zu einem Selbstdarstellungs-Narzissmus, der schnell in Depression und Selbstzweifel umkippt.“

Hinzu kämen in den Sozialen Netzwerken Hass und Angriffe auf die Demokratie. „Deshalb verlieren Facebook und Co. derzeit viele Millionen Nutzer. Der Höhepunkt der digitalen Illusion ist überschritten, jetzt geht es um eine neue Phase, eine humanistische Digitalisierung“, sagte Horx.

Der Forscher sieht auch einen Trend zur radikalen Ehrlichkeit. Firmen versuchten, radikal ehrlich mit sich selbst und ihren Mitmenschen umzugehen. „Dazu gibt es bereits eine gleichnamige Psychologiebewegung, aber auch in den Firmenstrategien wird der Trend sichtbar, besonders nach den Erfahrungen mit den Banken und dem Dieselskandal. Immer mehr Firmen überprüfen ihre ökologische, kommunikative, substanzielle Glaubwürdigkeit. Weil sie sonst schweren Schiffbruch erleiden“, befand Horx. Als Beispiele nannte er die Deutsche Bank oder VW. „Ehrlichkeit ist aber wahnsinnig schwer, weil wir den ganzen Tag damit beschäftigt sind, uns selbst und anderen etwas vorzumachen.“

2019 positive Faszinations-Themen statt Populismusthemen
Horx hofft nach eigener Aussage darauf, dass im neuen Jahr statt „Hysterie- und Populismus-Themen wie „Terror/Armut/Migration““ positive Faszinations-Themen hervorkommen. „Im Jahr 2019 jährt sich die Mondlandung zum 50. Mal. Ich kann mir vorstellen, dass eine neue Weltraumsehnsucht aufkommt, ein Space Age 2.0. Menschen suchen wieder den Weg ins Offene“, sagte er.

Der sehr heiße Sommer 2018 habe vielen Menschen klargemacht, dass die globale Erwärmung etwas in deren Leben verändere. „Vor allem Jüngere sind heute änderungsbereiter denn je, was Ernährung, Lebensstil und Mobilität betrifft“, sagte Horx. „Und sie haben auch Lust auf diese Veränderung, nicht nur Angst oder Unwille. Es wird in den nächsten Jahren eine neue Jugendrevolte mit ökologischen Themen geben.“

Der Zukunftsforscher sieht zudem eine Bewegung in Richtung Landleben: „Das ist die progressive Provinz: Nach dem Trend in die Städte geht es in der nächsten Phase wieder zurück aufs Land, in Regionen, die sich weltoffen und kreativ zeigen“, sagte er

Dauerdialog: Appell an die Medienpolitik

Der Medienwissenschaftler Otfried Jarren fordert eine breite Debatte über den öffentlich-rechtlichen Rundfunk in Deutschland. „Die Gesellschaft, für die dieses Medium da sein soll, muss diese Institution verstehen und akzeptieren können“, schreibt Jarren im Fachdienst epd medien. ARD, ZDF und das Deutschlandradio hätten eine Rechenschaftspflicht gegenüber der Öffentlichkeit. Faktisch seien die öffentlich-rechtlichen Sender aber „geschlossene, hierarchische Organisationen, die sich der Debatte entziehen“.

Der öffentlich-rechtliche Rundfunk müsse ein „öffentliches Medium werden, im Dialog mit der Gesellschaft und in beständiger Interaktion mit allen gesellschaftlichen Akteuren“, schreibt Jarren, der am Institut für Kommunikationswissenschaft und Medienforschung der Universität Zürich lehrt. Er kritisiert zudem die „Arkanpolitik“ der Staatskanzleien: Rundfunk- und Medienpolitik werde in Hinterzimmern verhandelt. Dabei müsste sie als Gesellschaftspolitik betrachtet und allgemein öffentlich betrieben werden. Die für den öffentlich-rechtlichen Rundfunk anstehenden Grundfragen, die Frage, wie sein Auftrag in der modernen Kommunikationsgesellschaft aussehen soll, müsse „politisch diskutiert und politisch gelöst“ werden. Jarren fordert eine Selbstorganisation des öffentlich-rechtlichen Rundfunks, damit dieser sich „zu einem dynamischen Akteur, zu einem öffentlichen Medium der sich globalisierenden Kommunikationsgesellschaft entwickeln kann“. Die Medienpolitiker müssten dem Rundfunk Freiheit gewähren und ihn ermächtigen, sich grundlegend zu reformieren. Sie müssten „zu einem Dauerdialog“ mit den Beitragszahlern gezwungen werden

Warten auf die Intelligenzexplosion

Vielleicht sind ja die Maschinen bereits sehr viel gescheiter als die Menschen, vielleicht konnten sie bereits – von den Menschen unbemerkt – übermenschliche Fähigkeiten, Superintelligenz, entwickeln. Sie verraten sich dadurch, dass sie sich dumm stellen. Sehr dumm. Microsoft Outlook zum Beispiel. So dumm kann man gar nicht sein, so dumm ist nur, wer so tut als ob, wer sich verstellt.

Was haben wir denn erwartet? Wie haben wir uns denn die Machtübernahme der Maschinen vorgestellt? Als Mediengroßereignis? So wie damals, im Mai 1997, als ein von IBM-Ingenieuren konstruierter Computer namens Deep Blue vor laufenden TV-Kameras den Schachweltmeister Garri Kasparow besiegte? Ist ein Computer, der pro Sekunde 200 Millionen Schachpositionen berechnen kann, intelligent? Wie intelligent ist er? Könnte er auch, wie Kasparow es getan hat, ein Buch schreiben über Intelligenz? Deep Blue sei etwa so intelligent wie ein Digitalwecker, schrieb Kasparow 2017 in „Deep Thinking“: „Nicht dass ich mich besser fühle, weil ich gegen einen zehn Millionen Dollar teuren Wecker verloren habe.“

Warum sollten die Maschinen uns ins Vertrauen ziehen, warum sollten sie uns mitteilen, dass sie das Stadium der Superintelligenz erreicht haben? Wären sie uns feindlich gesinnt, würden sie durch dieses Bekenntnis einen Vorteil verspielen, würden sie uns lieben, müssten sie befürchten, uns zu ängstigen.

Gedankenexperimente
Wie können wir herausfinden, was die Maschinen im Schilde führen? Reden wir mit ihnen! Es sei die Sprachbegabung, die den Menschen zum Menschen mache, so behaupteten bereits die ersten Philosophen, und im Gespräch, so glaubten Jahrtausende später die Computerwissenschafter, könnten Menschen die Denkfähigkeiten der Computer am ehesten beurteilen.

Als einer der Ersten hat nach dem Zweiten Weltkrieg Alan Turing die Frage aufgeworfen, ob man Maschinen bauen könne, die denken könnten. Es gab damals weltweit nur rund ein Dutzend Computer, deshalb dürfte Turing mit seinen Ideen viele seiner Zeitgenossen überfordert haben. Später dann, in den 1950er Jahren, begann sich „Elektronengehirn“ als Synonym für Computer einzubürgern, und schon bald – früher, als Turing vorausgesagt hatte – war für die Menschen künstliche Intelligenz das Normalste der Welt, obwohl sich die Realisierung einer solchen Maschine als sehr viel schwieriger erwies, als Turing vermutet hatte.

„Können Maschinen denken?“ Mit dieser Frage begann Turing 1950 einen Aufsatz für die britische Fachzeitung „Mind“. Turing löst diese Frage so, wie Alexander den Gordischen Knoten gelöst, so, wie Kolumbus ein Ei auf die Spitze gestellt hat: mit Gewalt. Definieren zu wollen, was Denken sei, sei „gefährlich“, schrieb Turing. Also verzichtet er darauf und nennt eine „denkende Maschine“ eine, die sich im Imitationsspiel bewährt, die sich so präsentiert, als könnte sie denken. Dieses Spiel wird heute Turing-Test
genannt.

Die Stunde der Wahrheit
Turing sagte 1950 voraus, dass es gegen Ende des 20. Jahrhunderts erstmals Maschinen geben werde, die gemäß den Regeln dieses Spiels Intelligenz beweisen könnten. Turing verlegt die künstliche Intelligenz (KI) um 50 Jahre in die Zukunft. Diese Zurückhaltung ist unter Computerwissenschaftern selten. Meistens wird die Ankunft von Denkmaschinen um 15 bis 25 Jahre in die Zukunft verlegt. Diese Zahlen nennt der britische Mathematiker Stuart Armstrong, der 2012 eine Sammlung von 257 Prognosen ausgewertet hat. Dieser Zeitrahmen wird wohl durch das Bemühen bestimmt, einerseits den Durchbruch der KI möglichst nahe bei der Gegenwart anzusiedeln, um die Menschen aufzurütteln, und andererseits die Stunde der Wahrheit möglichst weit in die Zukunft zu verlegen, um die eigene Glaubwürdigkeit nicht zu gefährden.

Also: Es wird noch rund zwei Jahrzehnte dauern, bis uns die Maschinen intellektuell ebenbürtig sind. Die Inselbegabung, über die etwa ein Schachcomputer verfügt, wird sich nach und nach zu einer Artificial General Intelligence (AGI) ausweiten, so stellt man sich das vor. Dank dieser Fähigkeit könnte sich eine einzelne Maschine dann in verschiedenen Anwendungsbereichen bewähren, sie könnte den Menschen auf Augenhöhe begegnen. Die Begegnung dauerte aber nur kurz, bald würde sich die Maschine zur Superintelligenz aufschwingen und eine Intelligenzexplosion auslösen. Die Menschen blieben allein zurück.

Das Konzept der „Intelligenzexplosion“ hat der britische Mathematiker Irving John Good sich ausgedacht. Anstatt „Superintelligence“ verwendete er den Begriff „Ultraintelligence“. Die Erfindung einer superintelligenten oder eben einer „ultraintelligenten“ Maschine wäre die „letzte Erfindung des Menschen“, so schrieb Good 1964. Denn in der Folge würden sich die Maschinen selber um das Erfinden neuer Maschinen kümmern. Mit hoher Wahrscheinlichkeit, so Good, werde diese letzte Erfindung noch im 20. Jahrhundert gelingen.

Das Gehirn nachbauen
Die Qualität der Voraussagen sei zumeist schlecht, schreibt Armstrong zusammenfassend in seinem Bericht über KI. Viele Prognostiker verließen sich auf ihr Gefühl, nur selten werde versucht, die der Prognose zugrunde liegenden Annahmen explizit zu machen und ein Modell zu entwickeln, das die für die Entwicklung der KI relevanten Faktoren und ihr Zusammenspiel beschreibe.

Ein oft verwendetes Modell basiere auf dem Mooreschen Gesetz, auf der von Gordon Moore publizierten Vermutung, dass die Zahl der Komponenten, die auf einem Computerchip platziert werden könnten, sich alle zwei Jahre verdoppeln lasse. Dieses „Gesetz“ lässt sich so interpretieren, dass die Rechenleistung exponentiell wächst. Man müsste also nur die Rechenleistung messen, um Aussagen über die Leistungsfähigkeit eines KI-Systems machen zu können. Doch dieser Zusammenhang zwischen Rechenleistung und Intelligenz ist nicht sehr eng; Deep Blue würde, wäre er nicht verschrottet worden, gegen neuere Schachcomputer, die weniger Rechenleistung besitzen, verlieren.

Wenn man annimmt – was zweifelhaft ist –, dass das Mooresche Gesetz seine Gültigkeit noch lange behalten wird und die Rechenleistung sich stetig steigern lässt, kann man berechnen, wann die Computer in der Lage sein werden, ein menschliches Gehirn nachzuahmen. Sei einmal ein künstliches Gehirn da, so glaubt unter anderen der schwedisch-britische Philosoph Nick Bostrom, sei auch künstliche Intelligenz nicht mehr weit. Bostrom – mit dem Buch „Superintelligence“ (2014) berühmt geworden – schätzt, dass für eine elektrophysiologisch exakte Nachbildung des Gehirns eine Rechenleistung von 10^22 Gleitkommaoperationen pro Sekunde (Flops) benötigt werde. Die Leistung der schnellsten Supercomputer der Welt liegt heute bei 10^15 Flops. Die Rechenleistung müsste also um den Faktor 10 000 000 gesteigert werden. Ungefähr in 25 Jahren, so schätzte Bostrom 2008, werde die computertechnische Nachbildung des menschlichen Gehirns möglich sein.

Es gibt ernstzunehmende Wissenschafter – der amerikanische Physiker Freeman Dyson –, die glauben, dass es KI in absehbarer Zukunft nicht geben wird, und es gibt unter denjenigen, die KI für möglich halten, auch solche – der britische Physiker David Deutsch –, die glauben, dass der Erfolg von einer einzelnen Innovation, von einer nicht vorhersehbaren und nicht planbaren „Inspiration“ abhängt. Die meisten Wissenschafter aber, die sich berufen fühlen, sich zur Zukunft der KI zu äußern, glauben, dass ein kontinuierlicher Fortschritt zur AGI führt. Wie viele Schritte sind es noch zum Ziel? Wie weit sind wir in den vergangenen 70 Jahren schon gekommen?

Große Fortschritte
In einzelnen Anwendungsbereichen der KI gibt es normierte Verfahren, die es erlauben, den Fortschritt zu bewerten. Bei den Schachcomputern verweist die Elo-Zahl auf die Spielstärke; bei der Spracherkennung ermöglicht die vom amerikanischen National Institute of Standards and Technology (Nist) entwickelte Speaker Recognition Evaluation einen Vergleich verschiedener Systeme. Standardisierte Tests gibt es auch für die Gesichtserkennung oder für die Handschrifterkennung. Die Qualität von maschinell hergestellten Übersetzungen wird gemäß einem Bleu (Bilingual Evaluation Understudy) genannten Verfahren bewertet; bei der Bildanalyse liefert die Imagenet-Datenbank einen Rahmen, um die Fähigkeiten von Softwareprogrammen zu testen.

All diese Messmethoden zeigen, dass in jüngster Vergangenheit in den genannten Gebieten – zumeist dank Techniken des Machine-Learning – große Fortschritte erzielt worden sind. In einigen Fällen werden den Computern bereits übermenschliche Fähigkeiten nachgesagt. Allerdings ist der Vergleich mit Menschen schwierig: Wenn diese etwa beim Verschriftlichen von Telefongesprächen oder bei Wiedererkennen von Gesichtern in der Imagenet-Datenbank mehr Fehler machen als die Maschinen, ist dies oft auch der Müdigkeit geschuldet. All diese Messmethoden sind in Teilbereichen wichtig, sie erlauben es, die Inselbegabungen der Computer zu bewerten. Aber sie ermöglichen es nicht, einen Bezug herzustellen zu einer universellen Intelligenz.

Was ist denn überhaupt Intelligenz? KI-Forscher haben von Turing gelernt, dass es gefährlich ist, sich auf diese Frage einzulassen; sie beschäftigen sich kaum je damit. Eine Ausnahme ist der deutsche Computerwissenschafter Marco Hutter, der an der Australian National University in Canberra lehrt und forscht. Er hat eine grosse Sammlung von Definitionen angelegt. Seine eigene Definition, die seiner Ansicht nach die Essenz einer Vielzahl von anderen Definitionen in sich vereinigen soll, lautet: „Intelligenz misst die Fähigkeit eines Agenten, Ziele in einer Vielzahl von Umgebungen zu erreichen.“ Nun verdanken sich allerdings bedeutende Fortschritte in der Geschichte der Wissenschaft der Tatsache, dass Ziele verfehlt wurden (Kolumbus) oder dass Ziele erst als solche erkannt wurden, nachdem sie zufällig erreicht wurden (Serendipität). Könnte es auch eine Maschine geben, die ins Grübeln verfällt, die sich dem dumpfen Brüten überlässt, die das sinnlose Sinnieren liebt?

Täuschung als Prinzip
Nach dem Krieg bis zu seinem Selbstmord 1954 hat sich Turing in mehreren Vorträgen und Aufsätzen mit den Möglichkeiten künstlicher Intelligenz befasst. Seine Ideen sind gehaltvoll und weisen weit über seine Zeit hinaus. Beispielsweise hat er auch bereits über Programmiermethoden nachgedacht, die man heute als Machine Learning bezeichnen würde. Nach seinem verfrühten Tod ging er vergessen. Was blieb, war der Turing-Test.

Viele Computerwissenschafter haben die Simplizität dieses Spielchens kritisiert. Doch es hat die Wissenschaft von der künstlichen Intelligenz stärker geprägt, als viele wahrhaben wollen. Mehr noch: Turings Gedankenspiele haben wie ein Schwelbrand die philosophischen Grundlagen der Neuzeit zerstört. In diesem Sinne äusserte sich kürzlich der Schweizer Technikphilosoph Walther Zimmerli anlässlich einer Vorlesung am Collegium Helveticum in Zürich. Kernaufgabe der neuzeitlichen Philosophie sei seit Descartes der methodische Zweifel gewesen, der Kampf gegen die Täuschung. Doch Turing habe die „Täuschung zum Prinzip erhoben“.

Der schöne Schein
Intelligent ist, was intelligent zu sein scheint. In diesem schönen Schein gefallen sich viele KI-Forscher und auch die Marketingverantwortlichen von Firmen, die KI-Produkte verkaufen möchten. Alle bejubeln die Erfolge der KI, doch es gibt keinen Maßstab, um den Fortschritt zu vermessen, es gibt keine Verfahren, um Wissenslücken zuverlässig aufzuspüren. Alle tun so als ob. Doch dann hat ein geistig zurückgebliebener, 13-jähriger Hip-Hop-Fan aus der Ukraine dem Spiel ein Ende bereitet. Er heißt Eugene Goostman und spricht nur gebrochen Englisch. Er ist nicht einfach ein dummer Junge, er ist eine Maschine, die sich dumm stellt. Und die Menschen sind darauf hereingefallen.

Nichts weniger als einen „Meilenstein in der Geschichte der Computerwissenschaft“ vermeldete die britische University of Reading am 8. Juni 2014. Erstmals habe ein Computer den Turing-Test bestanden. Das habe „große Implikationen für die heutige Gesellschaft“, das sei ein „Weckruf“. Doch wer sich die Protokolle der Gespräche ansieht, die Eugene und die Juroren geführt haben, wird Intelligenz nirgends finden. Die Software gibt ausweichende, dümmliche Antworten. Auf die Frage, wie viele Beine ein Kamel habe, antwortet Eugene: „Etwas zwischen zwei und vier. Vielleicht drei? :-))).“ Die Frage, wie viele Beine eine Ameise habe, ergibt die Antwort: „Etwas zwischen zwei und vier. Vielleicht drei? :-))).“ Eugene konnte das Imitation-Game gewinnen, weil die Juroren nicht damit rechneten, dass eine Maschine so gar nichts unternehmen würde, um Intelligenz vorzutäuschen.

Unerfüllte Hoffnungen
Die von unbekannten russischen und ukrainischen Programmierern geschaffene Eugene-Software ist sang- und klanglos in der Versenkung verschwunden. Ihr Sieg war aber insofern historisch, als er gezeigt hat, dass der Turing-Test nichts taugt. Seither wurden die Anstrengungen verstärkt, um Alternativen zu finden. Es wurde etwa ein Lovelace-Test vorgeschlagen: Hier soll sich der Computer als kreativer Künstler hervortun.

Bei einem anderen Test wird vom Computer verlangt, dass er bei TV-Serien voraussagen kann, wo die Menschen lachen werden. Dann gibt es die Winograd Schema Challenge: Sie wurde vom altgedienten kanadischen KI-Forscher Hector Levesque vorgeschlagen, der Name verweist auf den amerikanischen Computerwissenschafter Terry Winograd. Bei diesem Test geht es darum, Fragen zu beantworten, die das Sprachverständnis auf die Probe stellen. Beispiel: „Der Hammer passt nicht in den Koffer – er ist zu groß: Wer ist zu groß, der Hammer oder der Koffer?“ Die amerikanische Association for the Advancement of Artificial Intelligence hat 2016 erstmals eine Winograd Schema Challenge durchgeführt. Das Preisgeld von 25 000 Dollar musste nicht ausbezahlt werden, die beste Software konnte nur knapp zwei Drittel der Fragen richtig beantworten.

Die hier beschriebenen Turing-Test-Alternativen sind alle auf kognitive Fähigkeiten ausgerichtet, die als typisch menschlich gelten. Wollte ein KI-Forscher eine Software entwickeln, die sich in diesen Tests bewährt, müsste er sich wiederum auf ein Imitationsspiel einlassen. Doch man wird die Begutachtung eines neuen Düsenjets nicht einem Vogelkundler überlassen wollen, deshalb sollte man sich auch beim Testen der Maschinenintelligenz von psychologischen und neurologischen Vorkenntnissen lösen. Die Faszination der KI besteht ja doch auch darin, dass sie Hoffnung macht auf völlig neuartige Formen von Gescheitheit.

TV-Star Kylie Jenner – Viel mehr Gründerin als Sternchen

Sie ist 21 Jahre alt, TV-Star, Model und Social Media Personality sowie Idol der Teenager auf der ganzen Welt. Kylie Jenners Karriere ist gekennzeichnet von Superlativen. Das „Time Magazine“ kürte sie 2014 und 2015 zusammen mit ihrer Schwester zu den einflussreichsten Teens weltweit.

2017 nahm „Forbes“ sie in seine Liste der „Top 100 Celebrities“ auf und machte sie damit zur jüngsten Person, die es jemals auf diese Liste geschafft hat. Dieses Jahr erklomm Kylie Jenner mit mehr als 100 Millionen Followern die Top-Ten-Liste der meistgefolgten Personen auf Instagram.

Nun könnte man sagen, dass dieser Ruhm, auch wenn er in noch so jungen Jahren erreicht wird, keine besondere Leistung darstellt. Schließlich ist Jenner der Spross der Kardashian-TV-Familie, die es immer verstanden hat, sich gut zu vermarkten, und die Social-Media-Kanäle sind, wenn sie richtig genutzt werden, ein Katalysator für Berühmtheit und Einfluss. Auch Teenager ohne derart Hollywood-geprägten Familienanschluss haben ihre „road to fame“ durch die sozialen Medien erfolgreich geschafft.

Jenner ist aber auch Unternehmerin. Sie belässt es nicht dabei, als Werbeikone aus ihrer Berühmtheit Kapital zu schlagen. 2015, im Alter von 18 Jahren, gründete sie ihre eigene Kosmetikfirma, die heute unter dem Namen Kylie Cosmetics bekannt ist und ihr zu 100 Prozent gehört.

Das „Forbes Magazine“ schätzt Jenners Vermögen auf mehr als 900 Millionen US-Dollar und prophezeit ihr, bald die jüngste Selfmade-Milliardärin zu sein. Ohne Zweifel kann man darüber streiten, ob das Attribut „self-made“ in Jenners Fall tatsächlich angemessen ist. Und die leidenschaftliche Auseinandersetzung darüber im Internet zeigt, wie groß die Skepsis ist.

In der Debatte geht es allerdings nicht um Neid, das wäre sehr unamerikanisch, sondern um die Frage, wie viel eigenes Zutun hinter dem unternehmerischen Erfolg des Teenagers wirklich steckt. Sicher, Jenners Firmengründung war ein logischer Schritt nach diversen Kooperationen mit verschiedenen Mode- und Kosmetik-Labels.

Die Gründung war eingebettet in den Erfolg ihrer Familie und dadurch abgesichert – und barg für Jenner letztlich kein nennenswertes unternehmerisches Risiko. Dennoch, die damals 18-Jährige hätte den Schritt nicht gehen müssen, ihre Marke hätte sie auch weiter ohne eigene Firma stärken und ihren Reichtum so weiter mehren können.

Jenner entschied sich aber für die Unternehmensgründung. Es ist dieser Unternehmergeist und der damit verbundene Mut zur Wagnis, der ein Markenzeichen der USA ist. Unternehmertum gehört zum Selbstverständnis der Amerikaner, genauso wie die Offenheit für Innovation. Die Kombination von beidem ist der Nährboden für die Fähigkeit, sich immer wieder neu zu erfinden.

Unternehmertum, Risikobereitschaft und Innovationskraft sind auch die Hauptbestandteile des Phänomens Silicon Valley und das Erfolgsrezept der dortigen Start-up-Szene. Kylie Cosmetics ist alles andere als das klassische Start-up, aber Jenner hat bei all ihrem Tun immer auf Innovation gesetzt und neue Technologien für sich und ihren Erfolg genutzt – von den sozialen Medien bis zur eigenen App.

Der disruptive Einschlag der Start-ups
Amerikas Gründer haben verstanden: Innovation wird immer schneller und ist unausweichlich. Die Gewinner dieses Innovationsrennens – ob Unternehmen oder Länder – werden in der Zukunft wachsen und erfolgreich sein. Sie wissen: „You don’t want to be left behind here.“

Was banal klingt, zeigt in der Realität disruptive Wirkung. In den vergangenen 15 Jahren sind 52 Prozent der Top-500-US-Unternehmen verschwunden. Medien, Telekommunikation, Werbung, der Finanzsektor und der Handel sind besonders von der Disruption durch Digitalisierung und Innovation betroffen. Und die Entwicklung geht in einer steilen Kurve weiter.

Die fünf größten US-Unternehmen stehen als Sinnbild für diese Entwicklung: Microsoft, Apple, Google, Facebook und Amazon. Zusammen haben sie einen Marktwert von 3,9 Billionen US-Dollar. Allen fünf ist gemein, dass sie sich den technologischen Wandel nicht nur zunutze, sondern auch zu eigen gemacht haben.

Sie alle sind globale Unternehmen (außerhalb Chinas), wurden finanziert durch Wagniskapital aus dem Silicon Valley und sind im Durchschnitt jünger als 25 Jahre. Vor allem sind es die Gründer, die hervorstechen und für die amerikanische Gründerkultur symbolisch sind: Vier der fünf Unternehmen wurden von unter 25-jährigen Studenten ohne vorherige Berufserfahrung gegründet.

Der Weg von der Idee zum erfolgreichen Start-up ist im Silicon Valley gepflastert mit Misserfolgen und vor allem unzähligen Begegnungen und Veranstaltungen, bei denen sich potenzielle Gründer und Investoren treffen. Jeder redet mit jedem, gibt Tipps und verweist auf Kontakte. Schließlich könnte das Gegenüber einer der erfolgreichen Gründer sein. Diese Form der gegenseitigen Unterstützung ist genauso unerlässlich wie die finanzielle. Aus 10 000 Ideen beziehungsweise Gründungen werden nur 100 zur Erfolgsgeschichte. Für viele gilt gar die Faustformel: „Du musst zwei-, dreimal gescheitert sein, um erfolgreich zu werden.“

Kein Ausruhen auf Berühmtheit
Dahinter steckt aber nicht nur die notwendige Finanzkraft der Kapitalgeber, sondern vor allem das entsprechende Menschenbild. Scheitern wird nicht stigmatisiert und ist kein Indiz für grundsätzliche Unfähigkeit. Das amerikanische Menschenbild ist ein positives, das von den Stärken und Fähigkeiten jedes Einzelnen ausgeht und nicht von den Schwächen und Mängeln.

Das Silicon-Valley-Ökosystem aus Start-ups, Wagniskapital, Innovation und Zutrauen hat in den vergangenen 50 Jahren eine Landschaft geschaffen, die in rasantem Tempo technologische Neuerungen wachsen lässt, die nicht nur unsere Gesellschaften treiben, sondern auch die Entwicklung unserer Unternehmen. Daraus ist ein unglaublicher Vorteil für die USA erwachsen. China hat diesen Weg zwar später beschritten, dafür mit umso mehr Zielstrebigkeit. Europa „needs to speed up“.

Kylie Jenners Ökosystem war in erster Linie ihre berühmte Familie und deren Bekanntheitsgrad. Aber darauf hätte sie sich ausruhen können. Sie hat die nachhaltige Verbindung von Innovation, Digitalisierung und Unternehmertum erkannt und für sich genutzt, auf ihre eigene Weise: per Social Media, App und klassischem Produkt.

Ist dies eine besondere Leistung oder Errungenschaft, ist sie tatsächlich die jüngste „Selfmade“-Milliardärin? Die Antwort spielt nicht wirklich eine Rolle. Denn sie lenkt ab von dem, wovon wir lernen können, was wir uns zu eigen machen können und sollten: das amerikanische Selbstverständnis, das unternehmerisches Handeln und Innovation befördert.

Di Lorenzo: Betrugsfall beim „Spiegel“ beschädigt Genre Reportage

Tage nach der Veröffentlichung des „Spiegel“-Skandals werden immer mehr Details bekannt. So wies ein Reporterteam anscheinend bereits 2017 auf einen möglichen Betrug des Reporters Relotius hin – die Redaktion ging den Hinweisen offenbar aber nicht konsequent genug nach.

Der Betrugsfall beim „Spiegel“ beschädigt nach Ansicht des „Zeit“-Chefredakteurs Giovanni di Lorenzo das Genre der Reportage als Ganzes. Dies gelte insbesondere für „die Figur des Kriegsreporters, der normalerweise in Gebiete geht, in denen die Herrschenden ein besonderes Interesse daran haben, dass keine Informationen nach außen dringen“, sagte di Lorenzo in einem „Spiegel“-Interview.

„Diese Reporter geraten jetzt unter Generalverdacht, weil es kaum möglich ist, ihre Recherchen vollständig nachzuvollziehen.“ Dass jetzt an der Wahrhaftigkeit von Berichten gezweifelt werde, für die Menschen ihr Leben einsetzten, das sei der eigentliche Schaden.

Der „Spiegel“ hat das Interview mit di Lorenzo in seiner neuen Ausgabe gedruckt und den Betrugsfall im eigenen Haus zur Titelgeschichte macht. Nach Angaben des Hamburger Nachrichtenmagazins hat ein Redakteur „in großem Umfang seine eigenen Geschichten gefälscht und Protagonisten erfunden – er hat die Leser und seine Kollegen getäuscht“.

Di Lorenzo sagte, es müsse auch die Frage gestellt werden, ob es im Genre der Reportage zu einer Deformation gekommen sei, die alle Häuser betreffe. „Bei einigen Arbeiten, die für den Nannen-Preis eingereicht werden, frage ich mich: Ist das noch Journalismus oder schon ein Roman?“

Di Lorenzo sitzt in der Jury des Nannen-Preises, der zu den wichtigsten Auszeichnungen im deutsch­sprachigen Journalismus gehört. „Mittelmäßige und langweilige Geschichten sind und bleiben eine Zumutung! Andererseits gibt es die eine oder andere Reportage, bei der es mittlerweile so ist wie bei der Überzüchtung von Hunden oder Pferden – zu schön, um noch authentisch zu wirken“, sagte di Lorenzo.

Über den „Spiegel“-Redakteur, der im großen Stil Texte gefälscht haben soll, meinte di Lorenzo, seiner Erinnerung nach seien in den vergangenen Jahren mindestens zwei Geschichten des Journalisten in der Diskussion für die beste Reportage des Jahres gewesen. „Aber in der Jury gab es Zweifel an den Geschichten.“ Zwar sei nicht an Fälschungen gedacht worden. „Aber diese Geschichten waren von einer Glätte, Perfektion und Detailbesessenheit, dass es einige von uns nicht glauben konnten.“

Von Adler bis Zalando – der deutsche Modehandel hat Probleme

Das sich zu Ende neigende 2018 war für den Textilhandel ein einziges Jahr des Missvergnügens. Nicht nur traditionelle Unternehmen, sondern auch der Online-Modehändler Zalando standen vor zahlreichen Problemen. Erwarten uns 2019 nun Pleiten?

Ausgerechnet vor dem Weihnachtsfest mehren sich die Hiobsbotschaften aus dem deutschen Textilhandel. Nicht nur traditionelle Unternehmen wie Adler, Gerry Weber oder Esprit haben Probleme. Auch der lange erfolgsverwöhnte Online-Modehändler Zalando musste zuletzt zusehen, wie sich sein Börsenwert mehr als halbierte. Der Kreditversicherer Atradius warnt vor den Folgen für die Branche.

In den Augen von Atradius-Mann Michael Karrenberg war 2018 für den Textilhandel ein einziges Jahr des Missvergnügens. Erst habe der heiße Sommer für bescheidene Umsätze gesorgt, dann hätten auch noch das Herbstgeschäft und der Winteranfang unter zu milden Temperaturen gelitten. Karrenberg warnt: „Je länger das milde Wetter anhält, desto stürmischer dürften bald die Zeiten bei den Textilhändlern werden.“

Der Branchenkenner Peter Frank von der Münchner Handelsberatung BBE malt ein ähnlich düsteres Bild: „Es ist gut möglich, dass wir schon im Februar Pleiten sehen.“ Für ihn ist das warme Wetter allerdings nicht der entscheidende Faktor. Dieses verschärfe die Situation nur.

Ausgaben steigen nicht

Das Hauptproblem aus Franks Sicht: Die Ausgaben der deutschen Verbraucher für Bekleidung sind in den letzten 25 Jahren kaum noch gewachsen. Gleichzeitig nimmt der Online-Handel den Geschäften in den Einkaufsstraßen einen immer größeren Teil der Umsätze weg. „Es ist ein gnadenloser Ausleseprozess“, meint Frank.

Hausgemachte Fehler der Branche erhöhten den Druck zusätzlich. „Dem Modemarkt fehlt es an tiefgreifenden Innovationen“, klagte kürzlich das Fachblatt „Textilwirtschaft“. Mode an sich und auch der stationäre Modekauf hätten an Strahlkraft verloren. Stattdessen gäben die Verbraucher ihr Geld lieber für neue Smartphones, gutes Essen oder einen Kurztrip nach Paris aus. Zwischen Januar und Oktober lagen die Haushaltsausgaben für Textilien laut dem „Consumer Panel Fashion“ des Marktforschers GfK um 1,8 Prozent unter dem Vorjahresniveau, wie die Zeitschrift berichtete.

Kein Wunder, dass sich die schlechten Nachrichten aus der Branche häufen. Bekannte Marken wie Gerry Weber und Esprit kämpfen mit roten Zahlen und sind dabei, ihr Ladennetz deutlich zu verkleinern. Die Tom-Tailor-Gruppe muss auf ihre schwächelnde Damenoberbekleidungs-Tochter Bonita Wertberichtigungen von mehr als 120 Millionen Euro vornehmen. Auch die Modekette Adler korrigierte erst kürzlich ihre Umsatz- und Ergebnisprognosen für das Gesamtjahr nach unten.

Zalando taumelt an der Börse

Vielleicht noch bemerkenswerter: Selbst am Branchenschreck Zalando gehen die Turbulenzen nicht mehr spurlos vorbei. Seit dem Sommer hat sich der Börsenwert des Berliner Online-Händlers halbiert, mehr als sechs Milliarden Euro lösten sich quasi in nichts auf.

Auch der E-Commerce-Riese zeigte sich in jüngster Zeit alles andere als immun gegen die Probleme im Modehandel. Sein Umsatzwachstum war im dritten Quartal mit 11,7 Prozent nicht einmal halb so groß wie im Vorjahr (28,7 Prozent). Gleichzeitig fiel der Verlust mit 47,7 Millionen Euro fast vier Mal so hoch aus.

Auch Zalando klagte über den „langen und außergewöhnlich heißen Sommer sowie einen verspäteten Start in die Herbst-/Wintersaison“. Das Unternehmen musste aber mit Blick auf die steigenden Verluste auch andere Probleme einräumen – etwa Mängel beim Management zurückgeschickter Lieferungen, erhöhte Transportkosten und einen Rückgang der durchschnittlichen Bestellsumme.

Nutznießer solcher Branchenprobleme sind häufig die Verbraucher. Denn ob online oder offline: In ihrer Not greifen viele Händler zum Rotstift, um das Geschäft anzukurbeln. Laut einer Marktstudie der Unternehmensberatung Hachmeister und Partner wurden in diesem Jahr schon vier von zehn Bekleidungsartikeln mit Rabatt verkauft.

Facebook-Management mit dem Rücken zur Wand

Facebook hat jahrelang Daten von Hunderten Millionen Nutzern mit anderen US-Techkonzernen geteilt. Selbst auf private Nachrichten der Nutzer sollen Spotify, Netflix und andere Zugriff gehabt haben. Alles legal, versichert das Management um Mark Zuckerberg und Sheryl Sandberg.

Das weltweit größte soziale Netzwerk Facebook gerät wegen seines laxen Umgangs mit Nutzerdaten immer stärker in Bedrängnis. Der Skandal um Cambridge Analytica hatte zu Jahresbeginn weltweit für Schlagzeilen gesorgt. Konzernchef Zuckerberg und Top-Managerin Sheryl Sandberg gelobten Besserung. Doch investigative Berichte in der Folge zeigten nicht nur das Missmanagement, sondern auch die teils unlauteren Methoden, zu denen der Konzern griff, um abzuwiegeln oder Kritiker zu diskreditieren.

Offensichtlich hat Facebook aus der Krise nicht viel gelernt, hat die aus Sicht von Nutzern und Datenschützern bestehenden Probleme immer noch nicht in Griff – oder will sie wegen geschäftlicher Interessen gar nicht lösen. Einmal mehr findet sich das Management in einer Verteidigungsposition wieder.

Erst am vergangenen Freitag war bekannt geworden, das eine Datenpanne Fotos von Millionen Nutzer freigelegt hatte. Bis zu 1500 Apps sollen Zugriff auf auch nicht gepostete Bilder gehabt haben. Am Mittwoch nun kochte ein weiterer möglicher Skandal hoch, der sich bereits vor wenigen Tagen angedeutet hatte und tieferen Einblick gewährt in die Datendeals von Facebook mit anderen US-Technologie-Konzernen wie Airbnb oder Netflix.So

So hat Facebook mit bis zu 150 Firmen umstrittene Daten-Deals geschlossen. Facebook habe die Partnerschaften beginnend ab dem Jahr 2010 geschlossen.

Dabei soll zum Beispiel Microsofts Suchmaschine Bing Zugriff auf die Namen von Facebook-Freunden von Nutzern gehabt haben. Auch sollen Netflix und Spotify Zugriff auf private Nachrichten von Nutzern gehabt haben.

Netflix und Co hatten offenbar Zugriff auf private Nachrichten

Wenn sich die Nutzer einmal mit ihrem Facebook-Account zum Beispiel bei Spotify oder Netflix eingeloggt hatten, sollen die beiden Unternehmen für lange Zeit zugleich die Lese-, Schreib- und Löschberechtigungen für die Privatnachrichten erhalten haben.

Dabei sollen große Partner-Konzerne wie Microsoft oder Amazon vereinzelt mehr Daten erhalten haben als seinerzeit Cambridge Analytica. In dem Bericht ist die Rede von „hunderten von Millionen Menschen“, deren Daten monatlich ohne ihr Wissen weitergereicht worden sein sollen – einschließlich E-Mail-Adressen und Telefonnummern. Selbst noch im vergangenen Jahr hätten unter anderem Sony, Microsoft und Amazon E-Mail-Adressen von Facebook-Nutzern über ihre Freunde abrufen können.

Facebook sieht keine Regelverstoß, Nutzer aber nicht informiert

Facebook verteidigte die Praxis des Zugangs zu Nutzerdaten für die zahlreichen Firmen. Das Management betont, die Schnittstellen seien dazu gedacht gewesen, Nutzern den Kontakt zu ihren Facebook-Freunden auf den anderen Plattformen zu ermöglichen. Sie seien auch lediglich nach einer Anmeldung aktiviert worden, heißt es in einem Blogeintrag

Einen Verstoß gegen geltende Daten-Regeln sieht der Konzern nicht. Auch hätte das Daten-Sharing , bei dem kein Geld geflossen sein soll, die Privatsphäre der Nutzer nicht verletzt, weil es sich hier lediglich um öffentlich zugängliche Daten gehandelt habe.

Tatsächlich dürften die Nutzer von den Datendeals nichts gewusst haben, denn aufgeklärt habe Facebook seine Nutzer darüber nicht.

Schnittstellen zu Fremdfirmen existierten lange noch nach Sperrung

Zugleich bestätigte Facebook, dass die entsprechenden Schnittstellen zum Teil noch 2017 verfügbar gewesen seien, obwohl der Datenzugang eigentlich 2014 eingestellt worden sein soll. Das allerdings hätte nicht passieren dürfen, räumte der zuständige Manager Konstantinos Papamiltiadis ein. Facebook habe aber keine Hinweise darauf, dass es Datenmissbrauch nach dem Ende des Programms gegeben habe.

Das Online-Netzwerk nannte indes auch die „New York Times“ selbst in der Liste der Partner, bei denen es eine Verknüpfung mit Facebook-Daten gab.

Der große Sprung nach vorn bei der Smartphone-Fotografie

Die beste Kamera ist jene, die man immer dabei hat, so lautet eine alte Fotografen-Weisheit. Immer häufiger ist die beste Kamera das Smartphone – weil es meistens zur Hand ist und weil es in Sachen Fotografie rasch verbessert wird.

Gleich mehrere Hersteller haben neue Smartphones angekündigt, die mit herausragenden Kameras auf sich aufmerksam machen. Die chinesischen Hersteller Honor, Xiaomi und Huawei drehen dabei vor allem an der Pixelschraube und wollen im neuen Jahr Handys mit 48-Megapixel-Kamerasensoren herausbringen.

Völlig aufgelöst

Huawei setzt für das neue Topmodell seiner Untermarke Honor, das View20, auf einen Bildsensor von Sony. Mit dem IMX586-Sensor des japanischen Traditionsunternehmens ermöglicht die auf der Geräterückseite eingebaute Kamera laut dem Hersteller „echte“ High-Definition-Fotos mit 48 Megapixeln.

Sonys IMX586 ist ein leistungsstarker CMOS-Sensor, der bei guten Lichtbedingungen Aufnahmen mit der vollen Pixelzahl ermöglicht. Bei schwierigen Verhältnissen werden mehrere Bilder zu einem einzigen zusammengerechnet. Die entsprechende Rechenleistung für die Bilderzeugung liefert der KI-Prozessor namens Kirin, der im View20 zum Einsatz kommt.

Handys wollen DSLR-Kameras Konkurrenz machen

Auch das neueste Huawei-Flaggschiff, Nova 4, selbst hat den neuen Sony-IMX586-Sensor mit 48 Megapixeln an Bord. Das Topmodell punktet außerdem mit einer 25-Megapixel-Selfie-Kamera. Diese soll direkt in das fast randlose Display integriert sein, was durch eine kleine Aussparung erreicht wird. Dieses Loch-im-Display-Prinzip für die In-Screen-Kamera wird auch für die Frontkamera des View20 angewandt.

Mit 48-Megapixel-Kamera-Technik will außerdem Xiaomi ein Vorreiter sein. Das Unternehmen verbaut in seinem kommenden Top-Smartphone sein erstes eigenes Kameramodul. Der Newcomer hat Anfang des Jahres eigens eine separate Kamera-Abteilung ins Leben gerufen. Zum kommenden Xiaomi-Handy, das im Januar bei der CES vorgestellt werden soll, sind außer der Pixelzahl der Rückkamera noch keine Details bekannt.

Weitere Innovationen

Mit hoher Wahrscheinlichkeit werden im Umfeld der anstehenden Consumer Electronics Show im Januar weitere Hersteller 48-Megapixel-Smartphones vorstellen. Insbesondere von Samsung werden in diesem Bereich Innovationen erwartet. Die südkoreanische Firma hat bereits im Oktober einen 48-Megapixel-Sensor angekündigt, damals hieß es, die Massenproduktion werde im vierten Quartal hochgefahren. Wahrscheinlich ist, dass Samsung die neuen CMOS-Sensoren zunächst in den eigenen Top-Smartphones einsetzen wird.

Warum Amazon für die Werbeindustrie bald wichtiger sein könnte als Google

Reklame im E-Commerce boomt. Davon profitiert vor allem der Onlinehändler Amazon, der seine Werbeformate ausbaut. Der gesamte Markt wird gerade neu geordnet.

Zwei Tech-Konzerne sind die starken Herrscher im Markt für digitale Werbung: Die Suchmaschine Google und das Freunde-Netzwerk Facebook. Beide Unternehmen vereinen zusammen mehr als die Hälfte der Umsätze im digitalen Werbemarkt auf sich. Doch die Kräfte geraten in Bewegung – Onlinehändler Amazon hat das Werbegeschäft für sich entdeckt und vereint immer mehr Einnahmen auf sich.

Das Interesse der Werbeindustrie an der Plattform ist groß. Der Markt für Onlinewerbung verschiebt sich gerade deutlich. Eine Studie der Mediaagentur Zenith, deren Aufgabe es ist, Werbeplätze für Unternehmen zu buchen, kommt zu dem Ergebnis: Onlinewerbung im E-Commerce wird in den kommenden zehn Jahren 100 Milliarden zusätzliches Werbegeld in den Markt bringen.

„E-Commerce-Werbung ist geeignet, den Werbemarkt auf die gleiche Weise zu verändern wie Paid Search in den letzten zehn Jahren“, meint Zenith-Manager Jonathan Barnard. Unter Paid Search, zu Deutsch bezahlte Suche, versteht man Suchergebnisse in einer Suchmaschine, für die der Auftraggeber bezahlt. Mit diesem Geschäft hat sich Google zum dominanten Player im Onlinewerbemarkt entwickelt. Eine Position, die nun in Gefahr gerät.

Denn: Viele Konsumenten starten ihre Suche nach Produkten oder Marken nicht mehr bei Google, sondern direkt bei Amazon. In den USA beginnt bereits mehr als die Hälfte aller kaufrelevanten Suchanfragen bei dem Onlinehändler aus Seattle. Das ist auch der deutschen Werbeindustrie nicht verborgen geblieben.

„Die Werbetreibenden entdecken gerade die Plattform Amazon“, sagt Matthias Schrader, der die Beratung Accenture Interactive im deutschsprachigen Raum leitet. Seiner Einschätzung nach wird die Werbebedeutung von Amazon rasant steigen. Das zeigt sich bereits in den Zahlen des Onlinehändlers.

In den ersten neun Monaten dieses Jahres lagen die Werbeeinnahmen des Konzerns bei etwa 6,7 Milliarden Dollar, das sind etwa 130 Prozent mehr als im Vorjahreszeitraum. Die Werbeindustrie hofiert den Onlinehändler. Beliebt ist die Form der gesponserten Suchergebnisse.

Wenn ein Nutzer beispielsweise eine elektrische Zahnbürste sucht, dann schieben sich neben die Ergebnisse, die Amazon auf Basis eines Algorithmus anzeigt, auch gekaufte Suchergebnisse. Vor die Zahnbürsten der Marke Oral-B landet dann etwa ein Produkt der weniger bekannten chinesischen Marke Fairywill. Wer den höchsten Werbepreis bezahlt, landet weit oben.

Amazons Werbeabteilung bietet darüber hinaus Werbeanzeigen und Videoplätze am Rand der eigenen Website an. Und: Der Händler setzt auf Retargeting. Das heißt, dass Nutzer, die nach bestimmten Produkten auf dem Amazon-Portal gesucht haben und danach andere Medienseiten ansteuern, dort dieselben oder ähnliche Suchergebnisse in Displaywerbung sehen.

Die Oral-B-Anzeige erscheint dann beispielsweise auf einer Nachrichtenseite. Bei den Konsumenten kommt das an. Fast die Hälfte der Nutzer, die auf Amazon Produkte suchen, nimmt die Werbung in Form von gesponserten Produktergebnissen wahr, heißt es in einer exklusiven Studie des Marktforschungsunternehmens Innofact, die mehr als 1.000 Menschen dazu befragte.

Nur etwas über 37 Prozent stört die Werbung, fast 35 Prozent der Befragten sagen sogar, dass ihnen die gesponserten Suchergebnisse helfen. „Damit hat Amazon ein Online-Werbe-Tool, das sehr sichtbar ist und vor allen Dingen zu knapp zwei Dritteln akzeptiert wird“, erläutert Christian Thunig, Managing Director von Innofact. Werbung auf Amazon böte „viel Potenzial“. Für die Werbeindustrie bedeutet dies ein Umdenken.

„Wir haben einen weiteren Werbekanal und müssen dort Kompetenz aufbauen“, sagt Florian Haller, Hauptgeschäftsführer der Agenturgruppe Serviceplan. Für den deutschen Werbemarkt sieht er eine große Veränderung. Der Agenturchef, der rund 4.000 Mitarbeiter beschäftigt, ist deshalb konsequent: Er hat in der Spezialagentur Plan-Net ein kleines Amazon-Team mit rund acht Mitarbeitern, darunter auch ehemalige Amazon-Mitarbeiter, aufbauen lassen.

Haller glaubt daran, dass Amazon-Werbung schnell an Bedeutung gewinnen wird, auch wenn die „Buchungsmöglichkeiten zurzeit noch umständlich und kompliziert“ seien.

Direkteres Kaufinteresse

Für Christian Gast, Strategiechef der Hamburger Agentur Jung von Matt, hat Amazon einen großen Vorteil: „Amazon bietet die letzte Meile im Verkaufsprozess.“ Das Unternehmen weiß nicht nur, was die Nutzer suchen, sondern auch, was sie letztendlich bestellt haben. „Das ist ein großer Unterschied im Vergleich zu den beiden anderen Playern Facebook und Google.“

Die Amazon-Werbeanzeigen seien deshalb so erfolgreich, weil sie auf ein direkteres Kaufinteresse stießen. Eine komfortable Situation für den Onlinehändler, der jetzt auch Medienplattform ist. Anders als Google und Facebook, zumindest bis vor ein paar Monaten, umwerbe Amazon nicht die Werbeagenturen, erzählt Gast. Der Onlinehändler wende sich meist direkt an die Hersteller.

Er kann es sich leisten. Der nächste Schritt wird die Verlagerung des Kaufprozesses in den Sprachmodus sein. Der vernetzte Lautsprecher Echo nimmt schon heute Bestellungen entgegen, fertigt Einkaufslisten an, sucht Produkte heraus. „Alexa pervertiert das Spiel“, sagt Digitalexperte Schrader von Accenture Interactive.

Denn künftig scrollt der Nutzer nicht mehr durch die Ergebnisse der ersten ein bis zwei Webseiten, sondern hört sich bestenfalls die ersten drei Ergebnisse an. „Der Bieterkampf wird durch Alexa weiter angeheizt“, meint Schrader. Doch Schrader sieht das nicht als Untergang der Marken, sondern eher als neue Herausforderung.

Begrenzungen habe es auch schon früher gegeben, argumentiert er, als etwa der stationäre Handel darüber entschied, welche Marke auf welchem Regalplatz stehen darf. Der Handel bekam Werbekostenzuschüsse von der Industrie und entschied dann, an welcher Stelle welche Marke in den gedruckten Werbezetteln stehen darf. Dieses uralte System erodiert, an seine Stelle tritt die Onlinehandel-Welt.

Das zieht jede Menge spezialisierter Dienstleister an. Das vor vier Jahren gegründete Unternehmen Sellics hat beispielsweise eine Amazon-Analysesoftware entwickelt und hilft Firmen dabei, die Waren besser im Internet zu platzieren. Zuerst habe Sellics die Darstellung der Produkte veredelt, über bessere Fotos, lesbarere Texte und relevantere Informationen, sodass sie über die Suche automatisch weiter oben landen, erzählt Firmengründer Franz Jordan.

Ein mühsamer Weg, der zunehmend abgekürzt wird, indem Anbieter ihre Ergebnisplätze einfach kaufen. Auch dabei hilft Sellics. Das Angebot von Sellics läuft gut, das Berliner Unternehmen beschäftigt bereits 55 Mitarbeiter. Sie lesen über die Verkäuferkonten ihrer Kunden die Daten von Amazon aus. Darüber hinaus verfügen sie aber über keine Amazon-Daten.

Zu den Kunden von Sellics gehören Unternehmen wie Bosch, Lego, Edding und WMF. Das geschlossene Werbesystem von Amazon hat allerdings noch eine halboffene Flanke, und die heißt Bewegtbild. Es ist die Werbeform, die nach Ansicht von Werbeexperten wie der Mediaagentur Zenith weiter wachsen wird, und zwar um im Schnitt 18 Prozent zwischen 2018 und 2021 – doppelt so schnell wie andere Formen der Display-Werbung im Netz.

Facebook und Youtube bieten der Werbeindustrie bereits attraktive Videoplätze an. „Für die Markenbildung sind Videoplätze enorm wichtig“, sagt Gast von Jung von Matt. Amazon muss also noch nachziehen.

Facebook und Co.: Das Problem ist nicht das Medium, sondern das Geschäftsmodell

Das Jahr 2018 war nicht gut für Facebook und Twitter. Beide Unternehmen werden regelmäßig kritisiert, weil sie zu wenig gegen Hassrede und Gewaltaufrufe tun. Im Frühjahr wurde bekannt, wie das Unternehmen Cambridge Analytica mithilfe von Facebook-Nutzerprofilen den US-Präsidentschaftswahlkampf beeinflusste. Im Dezember veröffentlichte ein britischer Abgeordneter E-Mails aus Facebooks Chefetage, die zeigen, wie skrupellos das angeblich soziale Netzwerk Geschäfte macht. Dazu kommen immer wieder Datenlecks. Und vergangene Woche klagte eine Mutter Facebook und Twitter in einem offenen Brief an: Sie warf den Unternehmen vor, zwar ihre Schwangerschaft digital erkannt zu haben, aber nicht die Totgeburt ihres Kindes. Ihre Nutzerkonten wurden auch in der Trauerzeit weiter mit Werbung rund um Baby und Mutterschaft bespielt.

Gerade der letzte Fall zeigt, dass die sozialen Medien an einem gefährlichen Punkt sind. Zwar steigen Nutzerzahlen und Umsätze noch. Doch je größer die Kritik, desto größer wird irgendwann der Ekel bei Nutzern, die sich in der Folge abwenden. Das ist unternehmerisch gefährlich. Als Reaktion schrauben die Konzerne zwar an ihren Algorithmen oder geben sich mehr Mühe mit der Überwachung. Das aber, was sie so anfällig für Werbefehler und Missbrauch macht, ändern sie nicht: ihr Geschäftsmodell. Da liegt der eigentliche Fehler. Und den sollten die Verantwortlichen schleunigst korrigieren.

Facebook macht den gleichen Fehler wie die Medienunternehmen zuvor

Viele Industrien finanzieren sich, indem Kunden für das Erzeugnis und seine Erzeugung zahlen. Unternehmen wie Facebook dagegen bepreisen nicht ihr Produkt, sondern die Daten derjenigen, die kostenfrei ein Nutzerprofil pflegen. Kunden sind so nicht die Nutzer, sondern all jene Firmen, die für personalisierte Werbung zahlen. Und der Kunde ist König.

Interessanterweise machen die sozialen Medien den gleichen Fehler wie einst die analogen. Die Printmedien setzten lange auf ein Mischmodell aus Verkaufserlösen und bis zu zwei Dritteln Anzeigenverkäufen und vertrauten darauf, dass die fetten Jahre anhalten würden. Eine Konjunkturkrise und der neue Werbekanal Internet ließen die Anzeigenerlöse weltweit so stark sinken, dass manche Zeitung aufgeben musste. Viel zu lange dauerte es dann, bis sich die Medienunternehmen trauten, auch ihre digitalen Inhalte zu monetarisieren. Dass viele sich wirtschaftlich von diesem Fehler noch nicht erholt haben, sollte den sozialen Medien zu denken geben.

Der Erfinder des Internets, Tim Berners-Lee, gratulierte in diesem Jahr seinem „Kind“ mit einem offenen Brief zum 29. Geburtstag. Darin nannte er zwei Mythen, die die kollektive Vorstellung vom Internet beschränken: dass Werbung das einzig mögliche Geschäftsmodell für Online-Unternehmen sei. Und dass es zu spät sei, die Arbeitsweise von Plattformen zu ändern. In beiden Punkten müsse man kreativer werden. Recht hat er.

Die digitalen Netzwerke könnten im Kern gute Produkte sein

Was spräche dagegen, eine monatliche Gebühr für Netzwerke und Kurznachrichtendienste zu nehmen? Anders ausgedrückt: Warum machen Facebook, Twitter und all die anderen nicht endlich die Nutzer zu Kunden? Mit einem Abopreis für den Dienst, den man in Anspruch nimmt, so wie man ja auch für den Internetzugang zahlt, den man dafür braucht. Im Gegenzug müssten die Firmen darauf verzichten, die digitalen Seelen ihrer Nutzer für den Anzeigenverkauf auszuwerten. Das ist im Sinne von Berners-Lee nicht mal ein kreativer Gedanke, denn der Videostreamingdienst Netflix etwa arbeitet längst mit solch einem Modell. Auch diverse Apps bieten Basisdienste und werbefreie Premiumservices gegen Aufpreis.

Die Abscheu gegenüber der personalisierten Werbung und vor allem ihren moralischen Missgriffen überlagert die Tatsache, dass Facebook und Twitter im Kern gute Produkte sein könnten. Wer etwa mit Menschen, die im Ausland leben, mit ehemaligen Kollegen, Mitschülern und Studienfreunden in Kontakt bleiben will, hat in dem sozialen Netzwerk eine einfache technische Möglichkeit dafür.

Ein neues Geschäftsmodell kann zwar Hassrede und Desinformation nicht eindämmen. Aber es würde unternehmerisch für mehr Sicherheit sorgen, wenn sich die Konzerne breiter aufstellen und von Werbung auf Nutzerbasis unabhängiger machen. Die nächste Konjunkturkrise kommt bestimmt. Und der nächste Skandal auch.

20 Jahre MP3-Player

Vor 20 Jahren, Ende 1998, kam in den USA der erste MP3-Player auf den Markt. In Deutschland folgte die Markteinführung Anfang 1999. Das Kompressionsverfahren MP3 hat nicht nur eine neue Medienkultur begründet, es hat auch neue Märkte geschaffen.

Anfänglich reichten die internen Speicherkapazitäten dieser Geräte mit 32 MByte nur für etwa 30 Minuten Musik oder rund zehn Stücke, ein Bruchteil der heutigen Möglichkeiten. Im Jahr 2003 begann der Boom der MP3-Player in Deutschland mit 870.000 verkauften Geräten.

Die Verkaufserfolge gipfelten 2005 in mehr als acht Millionen Stück pro Jahr. Davon ist heute allerdings nichts mehr zu spüren. Für 2018 prognostiziert die gfu einen Absatz von weniger als 500.000 portablen Audioplayern.

Dieser Rückgang liegt vor allem darin begründet, dass das Abspielen von MP3-Dateien heute längst eine Selbstverständlichkeit geworden ist: Eine Vielzahl von Geräten – vom Smartphone über den Tablet-PC oder das Notebook, bis hin zu Autoradios – ist in der Lage, MP3-Dateien abzuspielen. Darüber hinaus hat auch das Streaming von Musik enorm an Bedeutung gewonnen: Nicht-lineare Angebote wie Podcasts, Musikstreaming-Plattformen und Audiotheken erfreuen sich steigender Beliebtheit. So nutzen über 40 Millionen Personen ab 14 Jahren zumindest gelegentlich Audioangebote aus dem Internet und die öffentlich-rechtlichen und privaten Radioanbieter verzeichnen monatlich zusammen 138 Millionen Stream-Abrufe. Die enorme Verbreitung der MP3-Wiedergabe in vielen Produktbereichen sorgt auch für eine erfolgreiche Entwicklung anderer Marktsegmente: So stieg beispielsweise der Absatz von Kopfhörern in den letzten Jahren kontinuierlich auf zwölf Millionen Stück im Jahr 2017. Für 2018 prognostiziert die gfu einen Absatz von 12,8 Millionen Stück (+ 6,8 %) und einen Umsatz von 560 Millionen Euro (+ 17 %). Auch Docking-Lautsprecher verzeichnen seit Jahren ein Wachstum: 2017 wurden 4,6 Millionen Stück verkauft, die Prognose für 2018 beläuft sich auf fünf Millionen Stück (+ 8 %).

Dem Markterfolg von MP3 ging eine umfangreiche technologische und Grundlagenentwicklung voraus. Der Standard „MPEG Audio Layer 3“ (kurz MP3) für Datenreduktion von digitalen Audiodaten wurde maßgeblich vom Fraunhofer-Institut für Integrierte Schaltungen IIS in Erlangen entwickelt. 1994 stellten Wissenschaftler des Instituts einen ersten Prototyp eines MP3-Players vor. Dies war der erste Musikspieler weltweit ohne bewegliche Teile. MP3 reduziert die Datenmenge einer Audiodatei, also von digitalen Musikstücken. Das Verfahren erkennt die für den Menschen hörbaren Signale und speichert diese bevorzugt.

Dadurch wird die Datei ohne hörbare Qualitätseinbußen deutlich kleiner und umfasst nur noch rund ein Zehntel der ursprünglichen Größe. Dies ermöglicht zum einen eine äußerst kompakte Speicherung von Audiodaten. Zum anderen wurde mit MP3 die Basis für die Übertragung der Daten im Internet oder über digitalen Rundfunk gelegt – und damit maßgeblich die heutige Medienkultur (mit)geprägt.

Facebook schloss fragwürdige Daten-Deals mit Tech-Riesen

Vom Bekanntwerden des Cambridge-Analytica-Skandals im Frühjahr bis hin zu zwei Datenlecks im Herbst: Was seinen Umgang mit Nutzerdaten angeht, befindet sich Facebook dieses Jahr ohnehin im Dauerverteidigungsmodus. Nun kochte ein weiteres Thema hoch, das sich unter anderem bereits durch die Veröffentlichung interner Facebook-Unterlagen angekündigt hatte: Facebooks fragwürdige Daten-Deals mit Firmen wie Netflix und Yahoo.

In einer umfangreichen Recherche, basierend auf vertraulichen Dokumenten und zahlreichen Interviews mit ehemaligen Mitarbeitern, legt die „New York Times“ dar, in welch weitreichendem Maße Facebook mit Drittfirmen kooperierte. Insgesamt soll es mit mehr als 150 Firmen Daten-Deals gegeben haben.

Für einige Firmen – wie Spotify und Netflix, aber auch Sony, Microsoft, Apple und Amazon – sollen dabei über Jahre Sonderregelungen existiert haben, teils noch zu Zeitpunkten, an denen sie für bestimmte Funktionen gar nicht mehr gebraucht wurden.

So sollen Spotify und Netflix von Facebook etwa Lese-, Schreib- und Lösch-Berechtigungen für die Privatnachrichten von Facebook-Nutzern bekommen haben (laut Facebook jedoch erst, wenn man sich über Spotify einmal in Facebook eingeloggt hatte). Und Yahoo hatte offenbar über Jahre Zugriff auf Postings von Freunden eines Nutzers – im Zusammenhang mit einer Funktion, die das Unternehmen schon 2011 eingestellt hatten.

Größer als Cambridge Analytica

Große Facebook-Partner wie Microsoft und Amazon sollen den Recherchen zufolge mitunter mehr Daten als Cambridge Analytica erhalten haben: „die Daten von Hunderten von Millionen Menschen pro Monat, einschließlich E-Mail-Adressen und Telefonnummern – ohne Wissen oder Zustimmung der Nutzer.“ Je nach Deal kam es offenbar auch dann zu Datentransfers, wenn Nutzer auf Facebook keiner einzigen Dritt-App bewusst eine Datenübernahme genehmigt hatten.

Im Rahmen der Deals soll kein Geld geflossen sein, stattdessen ging es darum, sich gegenseitig beim Großwerden zu helfen. „Vom Austausch sollten alle profitieren“, heißt es. „Auf der Suche nach explosivem Wachstum bekam Facebook mehr Nutzer und steigerte seine Werbeeinnahmen. Partnerunternehmen bekamen so Funktionen, die ihre Produkte attraktiver machten.“

Einige der Deals halfen Facebook auch dabei, seine eigene Funktion „Personen, die du kennen könntest“ zu verbessern, die Nutzern potenzielle Facebook-Freunde vorschlägt (und dabei immer wieder unheimlich wirkt). So sollen beispielsweise Daten aus Kontaktlisten von Amazon, Yahoo und auch Huawei eingeflossen sein.

Nutzer bekamen nichts davon mit

In vielen Fällen dürften die Nutzer nichts von Facebooks Vereinbarungen mitbekommen haben, explizit über den Datenaustausch aufgeklärt wurden sie den Recherchen zufolge nämlich nicht. Man habe die Partnerfirmen als Erweiterungen der eigenen Firma gesehen, wird Facebooks Privatsphäre-Chef Steve Satterfield zitiert – als Dienstleister, die es den Nutzern ermöglichen, mit ihren Facebook-Freunden zu interagieren.

Inwiefern sich Facebooks Daten-Deals mit Auflagen vereinbaren lassen, die das Unternehmen 2012 von der US-Handelsaufsicht FTC aufgebrummt bekommen hatte, ist indes unklar.

Steve Satterfield sagte, keine der Partnerschaften habe die Privatsphäre der Nutzer verletzt oder gegen die FTC-Vereinbarung verstoßen. Verträge würden die Partner-Unternehmen verpflichten, die Richtlinien von Facebook einzuhalten. Eine Facebook-Sprecherin sagte der Zeitung zudem, Facebook habe keine Belege für einen Missbrauch der Daten durch Partner gefunden.

Wie gut jedoch Facebook kontrolliert hat, was seine Partner mit den Daten anstellten, ist unklar. Geschlossen wurden die Deals den Recherchen zufolge von 2010 an, in Kraft waren angeblich alle bis 2017 – und teils auch noch dieses Jahr.

Spotify und Netflix wussten angeblich selbst nicht genau Bescheid

Facebook selbst hat bereits in einem aktuellen Blogpost Stellung genommen. Darin heißt es, in den letzten Monaten seien einige Partnerschaften geendet. Außerdem wird erklärt, dass es hauptsächlich darum ging, den Nutzern komfortable Funktionen zur Verfügung zu stellen. Ohne Einverständnis der Nutzer hätten Drittfirmen durch Partnerschaften oder bestimmte Funktionen keinen Zugang zu Informationen bekommen.

Manche Deals seien vergleichsweise unverfänglich, was die Privatsphäre der Nutzer angeht, heißt es tatsächlich – etwa, wenn nur nicht identifizierende Daten weitergegeben wurden. Rund ein Dutzend der Deals jedoch soll mit Blick auf den Datenschutz problematischer gewesen sein.

Ob und in welchem Maße die Partner-Unternehmen ihre Berechtigungen genutzt haben, ist nicht immer klar. Womöglich gab ihnen Facebook mitunter mehr Rechte, als sie tatsächlich brauchten. Spotify und Netflix sagten jedenfalls auf Nachfrage, ihnen sei gar nicht bewusst gewesen, welche weitreichenden Rechte ihnen Facebook eingeräumt hatte. „Zu keinem Zeitpunkt haben wir auf Privatnachrichten auf Facebook zugegriffen“, heißt es etwa von Netflix.

Wie Bots und Fake-Followers den deutschen Bundestags-Wahlkampf beeinflusst haben

Die allgemein geteilten Meldungen, wonach Roboter im deutschen Wahlkampf 2017 keine Rolle gespielt hätten, waren wohl voreilig. Neue Studien zeigen, dass es zu einer beachtlichen Aktivität von Social Bots in den sozialen Netzwerken kam. Die meisten Fake-Followers hatten dabei FDP und CSU.

Nicht nur jüngst beim Migrationspakt, auch vor der deutschen Bundestagswahl im September 2017 haben Social Bots und Fake-Followers in sozialen Netzwerken wie Twitter und Facebook ihr Unwesen getrieben – und im Wahlkampf wohl mehr, als bisher bekannt war. Das ergeben mehrere neuere Forschungsarbeiten. Zwei von ihnen wurden kürzlich auf der Konferenz der europäischen Kommunikationswissenschafter (Ecrea) in Lugano vorgestellt, eine dritte dieser Tage publiziert.

Social Bots sind Roboter, also Computerprogramme, die Texte verarbeiten können und in den sozialen Netzwerken herumspuken. Mit Likes und Shares und eigenen Botschaften, die sich variieren lassen, obschon sie im Kern jeweils dieselbe Aussage enthalten, verhelfen sie bestimmten Themen und Sichtweisen zu besonders viel Aufmerksamkeit im Netz. Sie beeinflussen dadurch, wie die öffentliche Meinung wahrgenommen wird – auch von Journalisten seriöser Medien und politischen Entscheidungsträgern.

Fake-Follower wiederum sind eine spezielle Form von Bots. Sie sollen auf Twitter den Eindruck erwecken, dass Politiker, Stars oder auch „hippe“ Brands eine möglichst große Zahl von Gefolgsleuten haben – aber zugleich auch tarnen, dass überhaupt Bots im Einsatz sind. Indem diese in niederschwelliger Anzahl ihre Botschaften von mehreren gefälschten Konten versenden statt von einem einzigen in großer Zahl, wirken sie auf Beobachter und Interaktionspartner gleichsam menschlicher.

Erstmals präzise Messung

Bots und Fake-Follower sind nicht einfach nachzuweisen, zumal die Methoden ihrer Betreiber, sie vor neugierigen Forschern zu verstecken, immer raffinierter werden. Fabian Pfaffenberger und seine Kollegen von der Universität Erlangen-Nürnberg haben starke Indizien, dass Bots im deutschen Bundestagswahlkampf stärker im Einsatz waren, als bisher vielfach berichtet wurde.

Die Forscher haben zunächst aus knapp 250 000 Twitter-Konten mithilfe von Algorithmen über 200 besonders aktive und „verdächtige“ Accounts identifiziert, die jeweils inhaltlich sehr ähnliche Tweets verbreiteten. Mit einer aufwendigen manuellen Analyse dieser Textbotschaften konnten sie präzisere Aussagen über Bot-Aktivitäten treffen, als das bisher möglich war. Denn zuvor kamen meist vollautomatische Programme zum Einsatz, die Bots mithilfe von Algorithmen identifizierten – zum Beispiel „Botometer“, eine Software, die von den 200 verdächtigen Accounts, welche die Forscher entdeckten, nur 66 identifiziert hatte.

Dabei konnten die Wissenschafter mehrere Cluster erkennen – also Gruppen von ähnlich agierenden Bots, die politisch aktiv waren. Einige Accounts verbreiteten Inhalte zugunsten der AfD, ein überraschend großes Cluster betrieb Wahlkampf für die Freien Wähler in Bayern. Auch eine soeben publizierte Studie von Tobias Keller (Universität Zürich) und Ulrike Klinger (FU Berlin) zum Vorfeld der Bundestagswahl bestätigt, dass Bots im Einsatz waren – auf Twitter ist ihr Anteil von sieben auf knapp zehn Prozent in der heißen Wahlkampfphase gestiegen. Die AfD ist allerdings, den Forschern gemäß und anders als vielfach vermutet, nicht durch übermäßigen Bot-Einsatz aufgefallen.

Die FDP liegt vorne

Besonders gut getarnt und somit gefährlich sind Netzwerke von Bots, die ihre Botschaften variieren und nur mit einer niedrigen Tweet-Zahl aktiv sind. Sie bleiben für gewöhnlich unter dem Radar der Forscher, weil vor allem Accounts mit einer sehr hohen Anzahl ähnlicher Tweets auffallen und somit verdächtig sind. Werden die Texte dagegen über mehrere Accounts verbreitet und jeweils minimal abgewandelt, steigt die Wahrscheinlichkeit, dass sie – im Vergleich zu einem weniger „smarten“ Roboter, der isoliert postet – geglaubt werden. Bot-Netzwerke können mithin Graswurzelbewegungen imitieren.

Tanja Drozdzynski und Bastian Kiessling von der HAW Hamburg, einer Fachhochschule, haben die Twitter-Aktivitäten der im Bundestag vertretenen Parteien und von sieben Spitzenpolitikern untersucht. Knapp 72 Prozent der deutschen Bundespolitiker sind laut den Wissenschaftern auf Twitter aktiv – Angela Merkel ist allerdings nicht darunter.

Die Forscher erarbeiteten einen Algorithmus, der mit einer 98-Prozent-Wahrscheinlichkeit Fake-Follower anhand von verschiedenen Merkmalen erkennt, und sie untersuchten ein Set aus 140 000 Followern der verschiedenen Parteien und Politiker. Das erstaunliche Ergebnis: Die meisten Fake-Follower hatten FDP und CSU (35,4 bzw. 33,3 Prozent). Persönlich hatten Dietmar Bartsch (Die Linke: 41,5 Prozent) und Christian Lindner (FDP: 29,1 Prozent) die höchste Zahl an Fake-Followern. Von den untersuchten sieben Spitzenpolitikern war bei Cem Özdemir (Die Grünen: 8,9 Prozent) und Alice Weidel (AfD: 7,8 Prozent) der Anteil der Bots unter ihren Gefolgsleuten am niedrigsten. Im Mittelfeld lagen Katrin Göring-Eckhardt (Die Grünen), Sahra Wagenknecht (Die Linke) und Martin Schulz (SPD). Zum Vergleich: Wie die Softwarefirma Sparktoro jüngst vermeldete, belegt Donald Trump bei den Fake-Followers in den USA einen einsamen Spitzenplatz: 61 Prozent seiner Twitter-Gefolgschaft sind Bots, Fake-Accounts, Spam oder Propaganda-Konten.

Auf Bot folgt Bot

Die deutschen Forschungsergebnisse liefern allerdings noch keinen definitiven Beleg für den Umfang der Bot-Aktivitäten im Wahlkampf oder geben Hinweise über deren Betreiber. Letztere können auch aus dem Sympathisantenkreis der jeweiligen Parteien oder Politiker stammen – und je nach Messmethode, so Tobias Keller, variieren auch die Ergebnisse. Die Übergänge zwischen Menschen, die selbst einen Tweet kopieren und mehrmals verbreiten, und eher selbständig agierenden Bots sind fließend. Auch wenn Akteure Programme zum Verbreiten von Tweets einsetzen, steuern sie diese immer noch selbst. Trotzdem werden so Diskurse im Internet manipuliert, denn im Ergebnis wird eine „gefakte“ Meinungsverteilung vorgespiegelt – ähnlich wie mit gekaufter Gefolgschaft in sozialen Netzwerken.

Meldungen, es habe kaum Bot-Aktivität im deutschen Wahlkampf gegeben, waren jedenfalls voreilig. Betriebsblinde empirische Sozialforscher neigen eben gelegentlich dazu, etwas, was sie nicht nachweisen können, als nichtexistent zu deklarieren – statt erst einmal die eigenen Messmethoden zu verbessern. So ist es kaum verwunderlich, dass sich – wie das jüngste Beispiel Migrationspakt zeigt – die Gelehrten zunehmend um Ausmaß und tatsächlichen Einfluss des Bot-Einsatzes streiten. Im Wettlauf mit den Bot-Betreibern und deren Versteckspiel gilt allerdings wohl auch die Aussage des Propaganda-Forschers Johan Farkas von der Universität Malmö. Er erklärte in Lugano, dass Propaganda, die man leicht enttarnen könne, schlichtweg „nicht gut gemacht“ sei.

Twitter, Facebook und andere soziale Netzwerke sind derzeit damit beschäftigt, in großer Zahl Fake-Nutzer-Konten zu löschen. Abzuwarten bleibt, ob das mit Erfolg geschieht oder ob es den Plattformbetreibern dabei ergeht wie Herakles mit der Hydra und so für jeden abgeschlagenen Kopf zwei neue nachwachsen.

Cook: Meinungsfreiheit ade

Apple-Chef Tim Cook zeigt sich besorgt, dass eine ausufernde Datensammlung in Internet die Meinungsfreiheit beeinträchtigen könnte. „Stellen Sie sich folgendes Szenario vor: Alles, was Menschen sagen oder denken, wird gesendet, analysiert, gespeichert“, sagte Cook in einem Interview. „Würden die Menschen aus Furcht vor Konsequenzen aufhören, ihre Meinung zu sagen?“Cook sieht auch eine Gefahr in einem möglichen Missbrauch der Daten. Länder wie die USA oder Deutschland seien zwar so stark, dass niemand ihnen von außen existenziellen Schaden zufügen könne. „Was mir Sorgen bereitet, ist, dass es mit einer Schatztruhe voller Daten möglich ist, die Menschen auf eine Art und Weise zu manipulieren, dass sie irgendwann aufeinander losgehen“, sagte der Apple-Chef.

Der 58-Jährige Manager bekräftigte auch seine Bewunderung für die im vergangenen Mai in Kraft getretene Datenschutz-Grundverordnung in der Europäischen Union. „Die EU-DSGVO ist ein unglaubliches Fundament, auf das wir alle aufbauen sollten“, sagte er. „Amerika wird ebenfalls eine solche Regulierung bekommen“, zeigte sich Cook überzeugt. Auch in einem anderen Punkt pflichtete er deutschen Politikern bei: „Ich halte die Hoheit über die Infrastruktur des Industriestandorts Deutschland für lebensnotwendig, da darf man keine Risiken eingehen.“ Das gelte auch für die Chip-Produktion.

Cook betont schon seit Jahren, dass Apple die Privatesphäre seiner Nutzer schützen wolle und betont den Unterschied zu anderen Tech-Konzernen wie Facebook. Vor einigen Wochen sprach er in Brüssel von einem „daten-industriellen Komplex“ – in offensichtlicher Anlehnung an den Begriff vom militärisch-industriellen Komplex.

Das handelte Cook allerdings den Vorwurf der Scheinheiligkeit ein: Schließlich habe er kein Problem damit, von Google Milliarden dafür zu kassieren, dass der Internet-Konzern die voreingestellte Suchmaschine auf Apples Geräten stellt. „Da Google die beste Suchfunktion bietet, ist Google in diesem Feld der beste Partner“, sagte Cook. Außerdem betont Apple, dass man etwa im hauseigenen Safari-Browser den Nutzern mehr Kontrolle über das Teilen von Daten gebe.

Die Revolution von Airbnb, Uber und Lyft wird reguliert

Firmen wie Airbnb, Uber und Lyft ändern menschliche Gewohnheiten. Doch jetzt werden sie von Kommunen und Politikern stärker reguliert als je zuvor.

Mit Airbnb wandelt sich eine ganze Generation von Milliarden-Start-ups unter dem Druck neuer Auflagen. Jahrelang wuchs der vor einem Jahrzehnt gegründete Vermittler für private Unterkünfte weitgehend unter dem Radar der Behörden.

Ungestört legte die Plattform die Grundlage für eine neue Branche, indem sie menschliche Gewohnheiten änderte. Heute ist es völlig normal, bei Fremden zu übernachten, zu Fremden ins Auto zu steigen oder Elektroroller vom Straßenrand wegzubuchen.

„Lieber später um Vergebung bitten als vorher um Erlaubnis“ – mit der von Leuten wie Milliardär und Airbnb-Investor Peter Thiel geprägten These schufen Start-ups in Silicon Valley gigantisches Wachstum und innovative Geschäftsmodelle, die das Leben der Menschen radikal vereinfachten. Wie Airbnb boten auch Uber oder Lyft ihre Services zunächst an, ohne eine Genehmigung zu erbitten.

Doch die Zeiten unregulierten Wachstums sind vorbei. Skandale wie bei Facebook, das seine Dauerkrise einfach nicht in den Griff bekommt, rütteln am Vertrauen in die Branche und beschleunigen staatliche Eingriffe.

Die Technologiebranche steht vor einem Umbruch, urteilt Dan’l Lewin, Direktor des legendären Computer History Museums in Mountain View, ehemaliger Microsoft-Manager und langjähriger Vertrauter von Apple-Gründer Steve Jobs. „Die neue Herausforderung für Silicon Valley ist, die sozialen und politischen Probleme zu verstehen, die seine Geschäftsmodelle verursachen.“ Es müsse darum gehen, „den technischen mit dem sozialen Fortschritt zu verschmelzen“.

Zumal die Newcomer von einst längst zu wirtschaftlichen Schwergewichten herangewachsen sind. Uber kommt auf eine Bewertung von 72 Milliarden Dollar, Lyft immerhin auf 15,1 Milliarden Dollar. Lime und Bird, die nach Recherchen des stets gut informierten Tech-Blogs „The Information“ vor eine Übernahme durch Uber stehen, sind jeweils 1,1 und zwei Milliarden Dollar wert.

Doch immer schneller reagieren Städte, Kommunen und Politiker auf die neue Firmenspezies, gehen verstärkt gegen Airbnb, Uber, Lyft – oder die neuen Scooter-Firmen Lime und Bird vor. Wenige Wochen nachdem die Elektroroller rudelartig über die Straßen von San Francisco oder Santa Monica bei Los Angeles düsten, erließen die Kommunen Vorschriften.

Auch im Fall Airbnb ersinnen die Kommunen Konzepte, um das Wachstum der Plattform einzudämmen. Die Städtevertreter klagen darüber, dass Airbnb zum Mietwucher beiträgt und durch die Umwandlung von Privatwohnungen in Quasihotels Einwohnern Wohnraum entzieht.

Amsterdams Stadtverwaltung, die eine kurzzeitige Fremdvermietung nur für 60 Tage im Jahr erlaubt, will den Zeitraum ab Januar halbieren. Paris, Airbnbs wichtigster Markt, hat die verfügbaren Tage für vermittelte Wohnungen ab Januar auf 120 Tage pro Jahr gedeckelt.

Die Führungsspitzen von Airbnb, Uber oder Lyft wissen, dass ihre Konzerne nur dann weiterwachsen, wenn sie mit den Behörden kooperieren und ihre guten Absichten unter Beweis stellen. Uber-Chef Dara Khosrowshahi lässt keine Gelegenheit aus, um zu betonen, sein Unternehmen wolle „nach den Regeln spielen“.

Lyfts Strategiechef Raj Kapoor: „Wir wollen eine Marke mit klaren Werten sein.“ Es gehe darum, auch über die „gesellschaftliche Auswirkung“ der eigenen Plattform nachzudenken.

Android-Apps verraten heikle Interessen an Facebook

Facebook-Nutzer können angeben, welcher Partei sie nahestehen, welchen Glauben sie praktizieren, wie ihr Liebesleben aussieht und vieles mehr. Sie müssen aber nicht. Schließlich können das heikle Informationen sein, die weder das Unternehmen, noch andere Facebook-Nutzer etwas angehen. Über Umwege allerdings erfährt Facebook es trotzdem, berichtet Mobilsicher.de. Die Umwege sind Android-Apps von Parteien oder zu Themen wie Religion, Sucht, Gesundheit und so weiter.

Tausende App-Entwickler benutzen einen fertigen Code-Baustein von Facebook, Software Development Kit (kurz: SDK) genannt, weil der eine kostenlose und für Entwickler hilfreiche Analysefunktion beinhaltet. Das geht aus Untersuchungen der französischen Organisation Exodus Privacy hervor, auf die sich Mobilsicher.de bezieht.

Wer eine entsprechende App installiert und aufruft, startet umgehend eine Datenübertragung an Facebook. Mobilsicher.de hat sich in ausgewählten Apps die dabei versendeten Datenpakete angesehen und darin die Uhrzeit, die Modellbezeichnung des Geräts, die IP-Adresse, den Namen der App und eine Werbe-ID gefunden. Letztere ist eine Folge von Ziffern und Buchstaben und einmalig pro Gerät, sie ist also pseudonymisiert.

Diese Pseudonymität wird laut Mobilsicher.de allerdings aufgehoben, sobald sich ein Nutzer auch nur ein einziges Mal über dasselbe Gerät bei Facebook anmeldet. In dem Fall wird die Werbe-ID aus der App mit dem Facebook-Profil verknüpft.

Facebook habe das auf Anfrage auch bestätigt, heißt es. Die erhobenen Informationen etwa über Parteizugehörigkeit, sexuelle Orientierung, Schwangerschaft, Religionszugehörigkeit, Nikotinsucht und andere gesundheitliche Probleme werden für Werbezwecke verwendet. Auch wenn sich die jeweiligen Facebook-Nutzer zuvor bewusst dazu entschieden hatten, Informationen über diese sehr privaten Themen nicht mit Facebook zu teilen.

Konkrete Beispiele für Fälle, in denen das passieren kann, sind die Android-Apps „Meine CDU“, „SPD Landtagsfraktion NRW“, der Depressions-Erkennungstest Moodpath und die Dating-App OKCupid.

Keiner der Anbieter – Stand: 29. November – klärt seine Nutzer bei der Einrichtung der App, in ihren Datenschutzrichtlinien oder auf seiner Website genau darüber auf. Von den vier genannten Angeboten erwähnt einzig Moodpath eine Datenübertragung an Facebook und die Werbe-ID überhaupt. Nach Angaben des Hamburger Datenschutzbeauftragten Johannes Caspar ist das auch zwingend nötig. Dass die Werbe-ID kein Pseudonym mehr ist, wenn sich jemand vom selben Gerät bei Facebook anmeldet, erklärt aber auch Moodpath nicht.

Die CDU schrieb als Strellungnahme dazu: „Das in unserer App verwendete Facebook-Plug-in ist in der aktuellen Version irrtümlich installiert. Wir haben den Hinweis in unsere aktuelle Datenschutzerklärung aufgenommen. Das Plug-in wird nach einem Update nicht mehr zum Einsatz kommen.“

Die NRW-SPD teilte mit: „Wir sind anlässlich Ihrer Mail diesem Hinweis direkt nachgegangen und haben die App aus dem Google Play Store entfernt. Tatsächlich war uns das mögliche Problem bisher nicht bekannt. Uns war dies bisher auch nicht aufgefallen, da wir diese App aufgrund der seit Längerem sehr eingeschränkten Funktionalität nicht mehr nutzen.“

Moodpath antwortete: „Wir bewerten die Möglichkeit, dass ein Drittanbieter wie Facebook möglicherweise sehen kann, wer die App nutzt, sehr kritisch. Aus diesem Grund planen wir, das Facebook SDK zu entfernen, was noch dieses Jahr passieren wird.“

Die Betreiber der Dating-App reagierten nicht.

Facebook bewahrt offenbar Daten auf

Wer kein Facebook-Konto hat oder sich vom Mobilgerät niemals dort anmeldet, überträgt beim Aufrufen der Android-Apps übrigens trotzdem die genannten Daten an Facebook – und Facebook bewahrt sie offenbar auch auf. Das Unternehmen teilte Mobilsicher.de jedenfalls mit, es verarbeite und speichere „Informationen von Nicht-Facebook-Nutzern anders, als die von Facebook-Nutzern“. Was nicht bedeutet, dass es sie nicht verarbeitet und speichert.

Wer keine personalisierte Werbung von Facebook haben will, kann sie direkt bei Facebook oder in den Einstellungen des Mobilgeräts (Android: Einstellungen > Google / Google-Dienste > Anzeigen; iOS: Einstellungen > Datenschutz > Werbung) deaktivieren. Die Werbe-ID wird dann mit einem entsprechenden Zusatz übertragen und Facebook nutzt sie nicht mehr für Werbezwecke. Aber Facebook speichert sie trotzdem.

Kulturrevolution beim „Spiegel“

Wie Journalismus zu den Menschen kommt, hat sich seit der digitalen Revolution radikal verändert. Der „Spiegel“ hat auf den Umbruch reagiert – und baut seine Redaktion um. Die Konsequenzen sind gewaltig.

Das Verhältnis zwischen Print und Online hat sich inzwischen, getrieben vor allem durch die mobile Revolution, von der inhaltlichen Bedeutung radikal gewandelt, auch wenn in vielen Fällen die wirtschaftliche Ertragskraft der digitalen Angebote hinter der Entwicklung ihrer Nutzung zurückbleibt.

Die ist allerdings exorbitant; digitale Kanäle erreichen oft deutlich mehr Nutzer als die entsprechenden gedruckten Ausgaben einer Medienmarke. So liegt beispielsweise „Welt“ bei mehr als 20 Millionen monatlichen Nutzern. Eine ungeheure Reichweite. „Welt“ hat die Fusion seiner Redaktionen bereits vor vielen Jahren vollzogen. Das heißt: Alle Redakteure und Autoren schreiben für alle Produkte, ob nun gedruckt oder digital.

Anders sieht es bei Medienmarken aus, die weiterhin weitgehend getrennte Redaktionen betreiben. Weil sie glauben, dass ihr auf Papier gedruckter Journalismus sich zu stark von ihrem Onlineangebot unterscheidet und nicht in einer Redaktion unter den Hut zu bringen ist.

Die überwältigende Mehrheit der Menschen konsumiert Journalismus – ob Nachricht, Kommentar oder Reportage – allerdings inzwischen digital. Weil sich diese Entwicklung beschleunigt, wird es zunehmend schwer, zwei formal getrennte Redaktionen für eine Marke zu betreiben.

Mammutprojekt für den „Spiegel“

Zwei der bekanntesten deutschen Medien, der „Spiegel“ und die „Zeit“, beide wöchentlich erscheinende Printpublikationen, beide mit separaten Onlineredaktionen, haben nun strategische Entscheidungen getroffen. Die unterschiedlich ausgefallen sind.

Nach fast schon quälenden Jahren des Zauderns hat sich der „Spiegel“ zu einer Zusammenlegung durchgerungen. Ab Januar werden die vorher auch gesellschaftsrechtlich getrennten Redaktionen in einem – und das klingt jetzt arg bürokratisch – Gemeinschaftsbetrieb geführt. Die Gesellschafter des Verlags haben diese Fusion beschlossen und tauschen dafür sogar die Chefredaktion aus.

Bemerkenswert ist in diesem Fall, dass etwas mehr als fünfzig Prozent am Verlag den Mitarbeitern selbst gehört. Deren Mehrheit sich also diese strategische Rosskur selbst verordnet hat. Am Ende werden etwa 500 Redakteure in Vollzeitanstellung das wöchentliche Magazin und die 24/7-Nachrichtenredaktion bestücken.

Unterschiedliche Geschwindigkeiten

Unterhält man sich mit Mitarbeitern, leuchten einem nicht unbedingt vor Euphorie aufgeladene Augen entgegen. Denn während es bei einer Tageszeitung noch vergleichsweise einfach ist, parallel für verschiedene Kanäle zu produzieren, ist das bei einem Wochenmagazin ganz anders.

Eine mehrseitige Aufmachergeschichte über die Untiefen der CDU erfordert eine völlig andere Denke und andere Kompetenzen als eine Liveberichterstattung vom CDU-Parteitag. Künftig kann nicht mehr nebeneinander, sondern muss miteinander geplant – und dabei möglichst nichts kaputt gemacht werden, was gut funktioniert. Klar ist: Die Mission birgt mindestens so viele Risiken wie Chancen. Klar ist auch, dass diese Mission nicht abgebrochen werden kann.

„Spiegel Online“ gehörte zu den ersten deutschen Nachrichtenwebsites überhaupt, mehr als 24 Jahre nach Anschaltung kommt jetzt die formale Gleichstellung mit den Kollegen, die bis vor wenigen Jahren noch den Kaffee an ihren Schreibtischen serviert bekamen.

Sowohl hinsichtlich der unterschiedlichen Kulturen wie auch der nötigen weitgehenden rechtlichen Angleichungen ist das Vorhaben verdammt kompliziert. So kompliziert, dass man das Haareraufen in den Verlagsabteilungen von der Straße aus zu hören glaubt.

„Sagen, was ist“

Kein Sparprogramm sei die Zusammenlegung, heißt es in dem weithin sichtbaren Verlagshaus in der Hamburger Hafen-City, in dessen riesiger Eingangshalle das Motto des „Spiegel“-Gründers Rudolf Augstein an der Wand steht: „Sagen, was ist“.

Wohl aber ist das Mammutprojekt eine Entscheidung vor einem wirtschaftlichen Hintergrund. Denn die Hauptumsatzquelle des Verlags ist der „Spiegel“, es gibt keine anderen lukrativen Zweige neben dem Geschäftsmodell Journalismus. Vor zwei Jahren wurde ein Sparprogramm durchgezogen, und schon länger ist Schönreden keine Option mehr.

Der designierte Chefredakteur Steffen Klusmann, der von der Schwesterzeitschrift „Manager Magazin“ kommt, ist ein journalismusversessener Pragmatiker, der sich der Tragweite der Mission bewusst ist. Noch gibt es Spielräume, doch alle Beteiligten wissen, dass bei der nächsten großen Wirtschaftskrise, wenn Werbeumsätze ausbleiben sollten, der große Knall droht.

Seit Klusmann Chefredakteur der „Financial Times Deutschland“ war, weiß er, wie erbarmungslos sich die Medienlandschaft transformiert. Zunehmend auch unabhängig davon, wie gut man ist.

Die „Zeit“ will keine Fusion

Nur einige Gehminuten vom „Spiegel“ entfernt residiert die „Zeit“ am Hamburger Speersort. Der Großteil der Redakteure der gedruckten „Zeit“ arbeitet hier. Der Großteil der Redaktion von „Zeit Online“ arbeitet dagegen in Berlin. Mehr Entfernung, wohl auch mehr Autonomie, geht eigentlich nicht.

Was nun auch bei der Wochenzeitung dazu geführt hat, dass Print- und Online-Redaktionen stärker zusammenarbeiten wollen. Die Rede ist von einer „engeren Verzahnung“, wohlgemerkt nicht von einer Verschmelzung.

„Daran glauben wir nicht“, sagte Chefredakteur Giovanni di Lorenzo. Und „Zeit Online“-Chef Jochen Wegner sagte im selben Gespräch: „Eine minutenaktuelle Online-Redaktion und ein wöchentlich erscheinendes Blatt, das weit über das aktuelle Geschehen hinausdenken muss, können an vielen Stellen inhaltlich gut zusammenarbeiten – strukturell macht das aus unserer Sicht nur ganz selten Sinn.“

Hier haben wir nun die beiden Positionen. Diejenigen, die eine vollkommene Fusion der alten und der halbwegs neuen Welt für unausweichlich halten, auch weil eine Trennung irgendwann wirtschaftlich nicht mehr darstellbar wäre. Und diejenigen, die sich zwar besser verstehen wollen, die digitaler werden wollen, auf einen formal geregelten Gemeinschaftsbetrieb aber lieber verzichten.

Digitale Abos im Fokus

Und tatsächlich ist eine Verheiratung von Redaktionen, die ganz unterschiedliche Geschwindigkeiten haben, kein Allheilmittel. Sie könnte sich aber als eine von der Digitalisierung getriebene Notwendigkeit erweisen. Weil zunehmend klar wird, dass Print zwar überleben wird, aber eher als ein exklusives, möglichst anspruchsvoll gemachtes Produkt für spezielle Zielgruppen.

Die Zukunft, das alle Medien verbindende Ziel ist mittlerweile die Gewinnung von Abonnenten digitaler Angebote. Das ist bei „Spiegel“, „Zeit“, „Welt“ und allen Mitbewerbern weltweit so. Und das Mantra in den Verlagshäusern lautet: Wenn nicht jetzt, dann nie.

Wenn es bei derartig hohen Reichweiten und einem bisher nicht gekannten Hunger auf Nachrichten, Einordnungen und Analysen nicht gelingen sollte, viele Nutzer ganz so wie in der alten Welt zu gewinnen, für Informationen auch zu zahlen, dann wird es eng. Mit oder ohne Gemeinschaftsbetrieb.

Warum Google jetzt auch Häuser baut

Es war ein Deal, der selbst im Silicon Valley für Furore sorgte: Als bekannt wurde, dass der Suchmaschinenkonzern Google für eine Milliarde Dollar einen Businesspark in seiner Heimatstadt Mountain View gekauft hatte, war dies der größte Immobilienkauf im Silicon Valley in diesem Jahr – und der zweitgrößte in den USA überhaupt.

Getoppt nur von einem anderen Kauf Googles im Frühling, als der Suchmaschinenkonzern 2,4 Milliarden Dollar für die ehemalige Keksfabrik Chelsea Market nahe Manhattans angesagtem Meatpacking District auf den Tisch gelegt hatte.
Für seinen neuesten Kauf in seiner Heimatstadt hat Google nun Pläne vorgelegt – und die zeigen, dass es dem Konzern dabei um weit mehr geht, als um mehr Platz für Server und Büros.

So sollen unter der Ägide des neuen Eigners neben Büros, Läden und öffentlichen Flächen auch rund 6600 Wohnungen entstehen, von denen ein Fünftel auch für einkommensschwächere Familien bereit gestellt werden sollen – was auch immer das im Silicon Valley heißt. Anfang 2019 soll dann öffentlich über die Pläne beraten werden.

Es sind nicht die ersten Schritte, die Google aktuell im Immobiliensektor unternimmt – aber die umfassendsten. Ging es dem Technologie-Konzern früher vor allem darum darum, genug Platz für die eigene Geschäftsentwicklung zu bekommen, gehen die Pläne des Tech-Giganten mittlerweile viel weiter.

Googles Stadt-Laboratorium

Wie weit, lässt sich an dem 2017 ins Leben gerufenen „Quayside“- oder“Waterfront“- Projekt in Toronto erahnen, für das sich Sidewalk Labs, eine Tochter der Google-Mutter Alphabet, mit öffentlichen Behörden zusammengetan hat. Dort soll zunächst aus einem 4,9 Hektar großen Ufergrundstück am Lake Ontario die Keimzelle einer vernetzten Smart-City entstehen – die später womöglich auf 325 Hektar anwachsen soll.

Die Planung der Stadt läuft auf Hochtouren. Neben mindestens einer Schule, Läden und Apartmentgebäuden soll diese auch über beheizbare Fußwege und intelligente Energienetze verfügen. Außerdem sollen Verkehrssensoren verbaut werden, die den Verkehrsfluss effizienter steuern , indem der Straßenbelag je nach vorgesehner Nutzung die Farbe ändert.

Allerdings sorgen ethische Bedenken, etwa gegen die Bewegungserfassung zur Verkehrsoptimierung und Diskussionen um die Datenhoheit,immer wieder für Rückschläge. Und Google ist nicht der einzige Technologiekonzern, den es ins Immobiliengeschäft zieht. Auch dem Onlinehändler Amazon werden immer wieder Ambitionen im Immobiliensektor nachgesagt.

Nachdem der Tech-Konzern aus Seattle offenbar bereits im vergangenen Jahr mit einem Angebot für Maklervermittlungen experimentierte und in einigen Gegenden auch in der Handwerkervermittlung tätig ist, hat Amazon zuletzt seinen Fußabdruck im Smart-Home-Bereich gestärkt. Einen Bereich, der Experten des Marktforschres Zion zufolge bis 2022 auf 53 Milliarden Dollar wachsen könnte.

Was Amazon im Immobiliensektor treibt

Um in dem umkämpften Milliardenmarkt Synergien zu nutzen, hat sich Amazon mit dem größten Bau und Immobilienunternehmen der USA Lennar zusammengetan. Zusammen mit ihm präsentiert es in einer Vielzahl von dessen Musterhäusern in so genannten „Amazon Experience Centers“ was in Sachen Smart-Home bereits möglich ist: Von Alexa-kontrollierten Lichtschaltern und Thermostaten über sprachgesteuerte Jalousien und TV-Geräte bis hin zur Bestellung von Lebensmitteln und Dienstleistungen per Sprachbefehl oder Knopfdruck.Auch die smarte Einlasskontrolle Ring, die Amazon im Februar dieses Jahres für angeblich eine Milliarde Dollar übernommen hatte, dürfte dort wohl vorgeführt werden.

Im September ging das Unternehmen dann noch einen Schritt weiter. Über den Amazon Alexa Fund beteiligte es sich an einer 6,7-Millionen-Dollar Finanzierung des kalifornischen Öko-Fertighaus-Unternehmen Plant Prefab.

Und auch das von Softbank mit Milliarden unterstützte Coworking-Startup Wework ist längst tief im Immobiliengeschäft involviert. Neben Makler- und Betreiberdiensten ist Wework in mehreren Immobilienfonds investiert, die mittlerweile nicht mehr nur umfangreich in Immobilien investieren, sondern auch eigene Bauprojekte vorantreiben.

Netflix und seine deutsche Konkurrenz: Fremde oder Freunde?

Seit Netflix auch in Deutschland sendet, stehen deutsche Programmanbieter unter Druck. Mal kooperieren sie, mal reagieren sie gereizt.

Er müsse jetzt einmal emotional werden, meint Ufa-Chef und Produzent Nico Hofmann. Es ist Ende Oktober in München, Hofmann sitzt in einer Podiumsdiskussion bei den Münchener Medientagen: „Ich finde das ganze Set-up etwas schwierig.“ Gerade hat Kelly Luegenbiehl, Vizepräsidentin für Internationale Originalproduktionen bei Netflix eine halbe Stunde lang im Einzelgespräch die Möglichkeit gehabt, die Philosophie des globalen Streaminganbieters zu beschreiben und die neuen deutschen Produktionen der Plattform ausgiebig zu präsentieren – „mit Showreel“, fügt Hofmann süffisant hinzu, also mit einer Videopräsentation.

Nun sitzt er mit Verantwortlichen von ZDF, RTL und ProSiebenSat.1 gemeinsam auf der Bühne und soll „in der zweiten Front erklären, wie die normale Welt weitergeht“. Der Ufa-Geschäftsführer ärgert sich über die exklusive Sonderbehandlung des US-amerikanischen Streaminganbieters zum Auftakt der Tagesveranstaltung, mit der „bereits ein Präjudiz auf die Gesamtlandschaft“ gegeben werde. „Ich werde nicht müde zu sagen, dass es eine Fehleinschätzung ist, dass wir hier alle von Netflix wach geküsst werden müssen“, sagt Hofmann.

Beim Thema Netflix, so viel wird auch im Laufe dieser Gesprächsrunde deutlich, reagieren die Repräsentant*innen der deutschen Sender- und Produktionslandschaft mittlerweile häufig verschnupft oder lassen gleich ihre Muskeln spielen. Heike Hempel, stellvertretende Programmdirektorin und Leiterin der ZDF-Hauptredaktion Fernsehfilm/Serie II, lässt sich angesichts des Interesses an den deutschen Eigenproduktionen des Streaminganbieters – die unter „Netflix Originals“ firmieren – sogar zu einer geradezu Battle-Rap-artigen Ansage hinreißen, wenn sie trotzig klarstellt: „Im ZDF senden wir Originals seit 1963.“ Das stimmt, ist aber vielleicht auch das Problem der alten TV-Platzhirsche. „Wir beauftragen pro Jahr um die 150 Fernsehfilme und ungefähr 300 Serienfolgen“, sagt Hempel mit Blick auf die kurz zuvor angekündigten fünf deutschen Netflix-Serien.

Gar nicht so groß, wie sie wirken

Auch auf dem Anfang November in München stattfindenden Branchentreff „Seriencamp“ legte man in diesem Jahr einen Schwerpunkt auf den vom Streamingboom herbeigeführten Paradigmenwechsel. Klaus Holtmann, Bereichsleiter für die digitalen Spartenprogramme von RTL, hebt die Milliardensumme hervor, die sein Sender jährlich in Produktionen stecke: „In dieser Hinsicht ist Netflix klein.“ Zumindest gesteht er der neuen Streamingkonkurrenz „gutes Marketing“ und „interessanten Content“ zu.

Dass sich seine Sendergruppe mit dem anvisierten Relaunch ihrer Mediathek namens TV Nowdem „kleinen“ Anbietern durchaus annähert, lässt er dabei lieber unerwähnt. Für die Neugestaltung der hauseigenen Digitalplattform will der Sender bereits exklusiv die eigentlich für den Pay-TV-Ableger RTL Crime produzierte Serie „M – Eine Stadt sucht einen Mörder“ sowie die Reality-Show „Temptation Island“ bereitstellen.

Seine Mitdiskutantin Nadine Bilke, Chefin des Digitalspartensenders ZDF­neo, schließt sich an: Hinsichtlich der Zahlen sei Netflix „nicht so groß, wie sie wirken“. Wenn man den Wettbewerb beibehalte, könne man durchaus auch beim Kampf um die jungen Zielgruppen mithalten. Die Trennlinien zwischen den globalen Streaminganbietern und den deutschen Sendern sind allerdings nicht immer so eindeutig. Bilke spricht von „Frenemies“, einem Kofferwort aus dem englischen „Friend“ (Freund) und „Enemy“ (Feind).

Mit der Serie „Parfum“ hat ihr Sender nämlich gerade auch eine Koproduktion mit dem vermeintlichen Feind Netflix präsentiert. Auf der anderen Seite hat das ZDF im Mai die Initiative „European Alliance“ geschmiedet, innerhalb der es zusammen mit France Télévisions, und dem italienischen TV-Sender RAI zukünftig fiktionale Serien gemeinsam realisieren will. „Zusammen haben wir die Möglichkeit, trotz Sparbemühungen international vergleichbare Budgets für Hochglanzserien bereitzustellen“, freut sich ZDF-Intendant Thomas Bellut.

Lokale Produktionen, universelle Geschichten

Es sind nur zwei Beispiele von vielen neuen Allianzen, die als Reaktion auf den Eintritt von Netflix oder Amazon in den Markt geschlossen wurden, um auf die veränderten Wettbewerbsbedingungen eingehen zu können. Neben der ZDF-Netflix-Kooperation bei „Parfum“ hat auch RTL für „M – Eine Stadt sucht einen Mörder“ im österreichischen ORF einen Koproduktionspartner gefunden. Und die erste Eigenproduktion der Telekom für MagentaTV, die deutsch-französische Culture-Clash-Comedy „Deutsch-Les-Landes“, ist in Zusammenarbeit mit Amazon entstanden.

Die „Frenemies“ von Netflix setzen bei ihren exklusiven Inhalten dagegen auf lokale Produktionen. „Es gibt eine lange Tradition, in der man versucht hat, eine Show um die Welt zu schicken, indem man eine amerikanische Figur eingebaut hat oder die englische Sprache zum Teil der Serie macht. Aber wir haben eigentlich herausgefunden, dass es das Gegenteil ist“, erklärt Kelly Luegenbiehl die Strategie ihres Unternehmens. „Wir haben gelernt, dass eine Story umso universeller ist, je spezifischer, lokal und authentisch sie ist.“

Mit der ersten deutschen Netflix-Produktion „Dark“ sei dies 2017 bereits bewiesen worden. Die Serie sei im ersten Monat ihres Erscheinens in mehr als 130 Ländern in den Top 10 des Anbieters aufgetaucht. „Solange es großartige Storys zu erzählen gibt, werden wir unsere Investments hier fortsetzen“, so Luegenbiehl.

Völlig frei wird Netflix bei solchen Entscheidungen in Europa zukünftig sowieso nicht mehr sein. Mit der überarbeiteten „Audiovisual Media Services Directive“ hat die EU gerade eine Richtlinie für Video-on-Demand-Dienste verabschiedet, bei der die internationalen Akteure einen Anteil von mindestens 30 Prozent an europäischen Inhalten in ihren Katalogen sicherstellen müssen. Dies dürfte Produzenten wie Nico Hofmann gelegen kommen. Bislang belaufe sich der Jahresumsatz der Ufa durch Streamingplattformen nämlich lediglich auf fünf oder sechs Prozent, hat er ausgerechnet. Die klassischen Auftraggeber machten noch immer den Löwenanteil aus.

Die spielen modernen Fußball

Natürlich verändert sich der TV-Markt durch digitale Vorreiter wie Netflix derzeit in Europa massiv. Nicola Lusuardi, Autor, Producer und Tutor des Torino SeriesLab, stellt das US-Unternehmen beim Münchner „Seriencamp“ in eine Reihe mit Google und Facebook. Dabei hebt er besonders die Geschwindigkeit hervor, mit denen dort gearbeitet werde: „Sie analysieren superschnell. Mir haben sie jedes Mal innerhalb von zehn Tagen beantwortet. Und wenn sie grünes Licht für ein Projekt geben, steht bereits der komplette Dreh- und Veröffentlichungsplan.“

Das Tempo, das hier im Vergleich zu den klassischen Sendern vorgelegt werde, könne mit dem Unterschied zwischen dem modernen Fußball im Gegensatz zum Kicker-Stil der 70er Jahre beschrieben werden, so Lusuardi: „Aber sie sind deswegen nicht weniger präzise. Es ist einfach nur eine Frage des Trainings.“ Um mithalten zu können und beispielsweise eine konkurrenzfähige europäische Plattform auf die Beine zu stellen, bedürfe es allerdings der Hilfe und Unterstützung aus der Politik. Und hier seien die Prozesse wiederum viel zu behäbig und träge.

Den Status als Innovationstreiber trage das Unternehmen seiner Meinung nach jedenfalls zu Recht: „Wir reden über Netflix nicht, weil wir die anderen Player nicht kennen, sondern weil sie uns gezeigt haben, was möglich ist.“

Boomender Online-Handel fegt Arbeitsmarkt leer – Paketzusteller erhöhen Preise

Der boomende Online-Handel treibt die Nachfrage bei den verschiedenen Paketzustellungs-Diensten immer weiter nach oben. Die Paketflut stellt die Zusteller vor große Probleme, die Suche nach Fahrern erweist sich bei niedrigen Löhnen als Herausforderung.

„Der Arbeitsmarkt ist leer gefegt“, sagte Hermes-Deutschland-Chef Olaf Schabirosky. „Das E-Commerce-Wachstum war in den letzten Jahren sehr groß. Es gibt Mitbewerber, die in der Lage sind, höhere Löhne zu zahlen. Teilweise wird gezielt abgeworben. Im Laufe des Jahres haben wir dadurch etwa 1000 Fahrer verloren.“ Rund 10.000 Fahrzeuge fahren für den Dienst, im Weihnachtsgeschäft 13.000.

Vor Weihnachten bleibt noch alles beim Alten – danach aber wollen Hermes und DPD ihre Paketpreise und die Post ihr Briefporto erhöhen. „Wir brauchen ein höheres Porto, weil unsere Personalkosten jedes Jahr um etwa drei Prozent steigen und gleichzeitig die Briefmengen um einen ähnlichen Wert sinken“, sagte Post-Chef Frank Appel.

„Wir werden die Preise stärker differenzieren“, sagte Schabirosky. „Das heißt unter anderem auch, dass die Haustürzustellung teurer werden wird.“ Das Unternehmen hatte bereits im Frühjahr seine Paketpreise um durchschnittlich 4,5 Prozent erhöht. Im kommenden Jahr werde es eine weitere, ähnliche Anhebung geben, kündigte Schabirosky an. „Insgesamt wollen wir den Preis für ein Paket um 50 Cent erhöhen. Das geht aber nur in mehreren Schritten.“ Ziel sei es, mit den Mehreinnahmen die Zusteller besser zu bezahlen. „Aktuell haben wir einen Mindestlohn von 9,50 Euro ausgerufen. In etwa vier Jahren kommen wir bei 12 Euro an“, erklärte der Manager.

DPD kündigte an, nach einer Steigerung in diesem Jahr von 4,5 Prozent zum Jahreswechsel die Preise um 6,5 Prozent zu erhöhen. „Auch in den kommenden Jahren werden kontinuierliche Preisanpassungen unvermeidbar sein“, hieß es. Als Gründe wurden etwa höhere Frachtkosten, die Erweiterung der Maut oder Tarifabschlüsse aufgeführt.

Auch im Paketversand versuche die Post-Tochter DHL, Preiszuwächse durchzusetzen, sagte Appel. „Unsere Branche hat ein grundsätzliches Problem, weil die Zustellung zu gering bezahlt wird“, erklärte der Post-Chef zur Begründung. „Faktisch sind die letzten 50 Meter bis zur Haustür der teuerste Teil unserer Dienstleistung. Genau dort lässt sich aber die Effizienz kaum mehr steigern.“

Über einen Portoaufschlag speziell für die Haustür-Zustellung denke die Post aber nicht nach. „Wir zahlen am besten, etwa 98 Prozent der Pakete werden von eigenen Leuten zugestellt, die Tarifverträge besitzen“, sagte ein Sprecher der dpa. Die Bezahlung liege deutlich über dem Mindestlohn, man arbeite wenig mit Subunternehmern.

Auch der Internet-Versandhändler Amazon setzt neben der Zusammenarbeit mit Paketdiensten auf eigene Zusteller. Der US-Online-Handelsriese experimentiere verstärkt mit eigenen Lieferungen – „schon um zu lernen, wie man es noch besser machen kann und muss“, sagte Amazon-Deutschland-Chef Ralf Kleber. In der heißen Phase des Weihnachtsgeschäfts droht die Gewerkschaft Verdi dem Versandhändler wegen des anhaltenden Konflikts um verschiedene Tarifsysteme wieder mit Ausständen.

Bereits seit mehreren Jahren machen Amazons Versuche, in der Zustellbranche in Deutschland Fuß zu fassen, die Konkurrenten nervös. Schon 2015 starteten Amazon, DHL und Audi ein gemeinsames Pilotprojekt, bei dem Pakete in den Kofferraum eines Pkw zugestellt werden. Der Paketbote darf mit einem Einmalcode den Kofferraum eines Privatwagens per Smartphone-App öffnen, der Fahrzeughalter muss dazu den ungefähren Standort mitteilen. Die Paketzustellung in den Kofferraum war ursprünglich 2014 vom schwedischen Autohersteller Volvo eingeführt worden. Auch BMW und Smart experimentieren mit diesem Zustellmodell. Von dieser Idee ist auch Volkswagen so angetan, dass der Konzern ab 2019 ausgewählte Modelle mit dieser Möglichkeit ausrüsten will.

In den USA bietet Amazon bereits die Variante einer Zustellung in die Wohnung des Kunden an, auch wenn dieser nicht zuhause ist. Ein smartes Türschloss inklusive Kameraüberwachung soll dem Paketboten die Haus- oder Wohnungstür öffnen. Allerdings auch wirklich nur dem Paketboten – bei dieser Aufgabe schoss das System bereits einmal übers Ziel hinaus. Die Zustellung per Drohne sowie per Roboter wurde ebenfalls von mehreren Unternehmen ausprobiert.

EU-Urheberrecht: Filmverbände nun doch auch gegen Uploadfilter

Die EU-Urheberrechtsreform will das Copyright modernisieren – hat aber mehrere als problematisch gesehene Punkte, für die das EU-Parlament in erster Lesung aber trotzdem stimmte. Besonders umstritten sind die Artikel 11 und 13. Ersterer sieht ein sogenanntes Leistungsschutzrecht vor, auch als „Linksteuer“ bezeichnet. Demnach dürften Aggregatoren, etwa Google News, keine Titel und Anreißertexte von Medien anzeigen. Artikel 13 soll hingegen verhindern, dass urheberrechtlich geschützte Materialien illegal weiterverbreitet werden – noch bevor sie hochgeladen wurden. Zwar wird ein „Uploadfilter“ nicht wörtlich genannt, würde aber der Definition im Entwurf entsprechen. Ein solcher würde Inhalte, die etwa in sozialen Netzwerken geteilt werden, noch vor der Veröffentlichung prüfen und, sollte eine Urheberrechtsverletzung möglicherweise bestehen, den Upload verhindern.

Film- und Sportindustrie distanziert sich klar

Nun befindet die geplante Reform sich in den letzten Runden der Trilog-Verhandlungen, auf die ein endgültiger Entwurf folgen soll, der daraufhin nochmals vom EU-Parlament abgesegnet werden muss. Die umstrittenen Punkte sind bisher gleich geblieben – was sich aber nun aufgrund eines überraschenden Lobbybriefs von Filmverbänden und Sportveranstaltern ändern könnte. Darin distanzieren sie sich von jeglicher Unterstützung des Artikels 13 und kritisieren, dass er nach aktueller Fassung die großen Inhalteanbieter wie Youtube wenn überhaupt nur stärken würde. Daher fordern sie, sollte Artikel 13 in der Form umgesetzt werden, dass die Film- und Sportbranche aus der Regelung ausgenommen wird.

Mehr Macht für die Großen

Youtube bietet mit Content-ID bereits einen Uploadfilter an. Kritiker warnen, dass vor allem kleinere Konkurrenten sich die Erstellung einer solchen Schranke nicht leisten könnten – weswegen womöglich eine zusätzliche Abhängigkeit von Google entstehen könnte.

Somit bleibt als einziger großer Befürworter für den umstrittenen Artikel die Musikindustrie. Bei den Verhandlungen im Trilog sollen die zusätzlichen Rechte für Künstler jedoch wieder stark beschränkt werden. Sie hätten laut dem Text künftig faire Anteile am Erfolg eines Inhalts erhalten sollen – und würden transparent darüber informiert werden, welche Einnahmen der Vertragspartner hatte, um Ausbeutung zu verhindern. Das wurde jedoch wieder gestrichen.

Rechte für Künstler: „Formulierung geändert“

Aus EVP-Kreisen hieß es, dass es bloß um die Formulierung ginge. „Niemand will die Transparenz oder die ‚faire‘ Bezahlung infrage stellen“, heißt es. Eher gehe es um das Wort „proportionate“, das im Entwurf enthalten ist. Frei übersetzt steht darin, dass Künstler eine „faire und angemessene Vergütung“ erhalten sollen. „Angemessen“ soll nun gestrichen werden. „Hier soll verhindert werden, dass verpflichtend ein Teil des Gewinns oder Umsatzes bezahlt werden muss und Pauschalvergütungen daher grundsätzlich unmöglich gemacht würden“, lautete die Begründung.

Wie sich die EU gegen Fake News wappnet

Sie soll mit einer Vertiefung des Meeresbodens begonnen haben, die angebliche Desinformations-Kampagne der russischen Medien um das Asowsche Meer. So schlüsselt die EU East Stratcom Taskforce die Eskalation eines Konflikts auf, an dessen Ende die Schüsse auf drei ukrainische Marineboote stehen.

2015 wurde die aktuell 14 köpfige Expertengruppe ins Leben gerufen. Sie sollte die Antwort der EU auf Propaganda und russische Verwirrungstaktiken sein, wie sie die Europäische Kommission etwa im Syrienkrieg oder beim Abschuss des Flugzeugs MH-17 als „gut dokumentiert“ ansieht.

Seitdem listet die Taskforce Woche für Woche zweifelhafte Nachrichtenmeldungen auf, beobachtet Trends. Dafür arbeitet die Gruppe mit einem Netzwerk aus lokal arbeitenden Fact-Checkern zusammen, die ihre Ergebnisse an die Zentrale in Brüssel weiterleiten.

1,9 Millionen Euro standen dem Team dafür in diesem Jahr zur Verfügung. Wie in einem am Mittwoch vorgestellten Aktionsplan angekündigt, soll dieser Betrag anlässlich der im Mai anstehenden Europawahl mehr als verdoppelt werden. Das Personal soll auf 25 Menschen aufgestockt werden, bis 2020 sollen es mindestens 50 Mitarbeiter sein.

Hintergrund ist die Angst vor Wahlmanipulation. Bei der Vorstellung des Aktionsplans sagte Kommissions-Vizepräsident Andrus Ansip „Desinformation ist Teil von Russlands Militärdoktrin und seiner Strategie, den Westen zu spalten und zu schwächen“. Genauer dürfte es auch darum gehen, die Stärkung antieuropäischer Parteien im Parlament zu verhindern.

Eine große Aufgabe für die Taskforce der EU East Stratcom. Bislang beschränkt sich deren öffentlich wahrnehmbare Arbeit vor allem auf den wöchentlich erscheinenden Newsletter „Disinformation Review“. Die Reichweite ist beschränkt. Das Angebot erreicht vorrangig Wissenschaftler aus Denkfabriken sowie Journalisten. Für das Massenpublikum werden Grafiken und Artikel zusätzlich viral über Facebook und Twitter verbreitet.

In dem Newsletter analysiert das Team die Narrative, die anhand von Falschmeldungen verbreitet werden sollen. So wie im September 2017, als der Moskauer Fernsehsender NTW über von der Ukraine geplante Vertiefungsgrabungen im Asowschen Meer berichtet. Das Nachbarland wolle das flache Wasser so künftig auch für die Nato-Flotte manövrierbar machen. Als Quelle werden die Recherchen ukrainischer Journalisten genannt. Wer diese Menschen sein sollen, bleibt unklar.

Über ein Online-Journal folgt im Juli 2018 die Nachricht, die Ukraine infiziere das Meer mit Cholera. Im Fernsehen spricht ein ehemaliger russischer Soldat über US-Pläne für einen ukrainisch russischen Krieg, der seit den Neunzigern vorbereitet werde – Grundlage für seine Behauptungen ist ein Videospiel.

Die Sprache wird immer drastischer, die Notwendigkeit russischer Verteidigungsmaßnahmen in den Meldungen immer zwingender. In Kommentarspalten und unter Verschwörungstheoretikern auf YouTube geht es bald nach den Schüssen auf die Marineboote um atomare Waffen und einen von Russland verhinderten Ausbruch des dritten Weltkrieges. Die Taskforce nennt das eine sich intensivierende Kampagne.

Das Wort impliziert, dass es sich um ein koordiniertes Vorhaben handelt, dass über mehr als ein Jahr über verschiedene Medienkanäle entwickelt wurde. Kritiker nennen EU East Stratcom wegen solcher häufig nur unzureichend transparent gemachten Schlüsse auch Europas Propaganda-Apparat. Auch weil Aufklärung über Falschinformationen und die Stärkung unabhängiger Presse nicht die einzigen Ziele der Gruppe sind. Das Kommunizieren und Werben für politische Entscheidungen der EU in östlichen Nachbarländern wird ebenfalls aufgeführt.

„Das mögen schon russische Kampagnen sein, die dort beschrieben werden“, sagt Gwendolyn Sasse, Wissenschaftliche Direktorin am Berliner Zentrum für Osteuropa- und internationale Studien. Obwohl sie selbst Leserin von „Disinformation Review“ ist und den Ansatz begrüßt, kritisiert sie, das Stratcom-Team würde zu schnell von Einzelnachrichten auf das Vorhandensein eines gesteuerten Medienkomplotts schließen. „Vielleicht liegen ja im Hintergrund Informationen vor, die solche Schlüsse zulassen“, der genaue Rechercheweg werde in dem Newsletter-Format jedoch nicht deutlich genug kommuniziert.

Um sich dem Vorwurf der Propaganda entgegenzustellen helfe nur mehr Transparenz, sagt Sasse. „Ich denke nicht, dass die einzelnen Expertinnen und Experten nicht transparent arbeiten wollen, aber bisher sehe ich wenige Mechanismen, das auch in die Öffentlichkeit zu tragen.“ Grundsätzlich könne die Arbeit jedoch als kleiner Teilaspekt zu einem kritischeren Umgang mit Medien beitragen.

Im Vorfeld der EU-Parlamentswahlen warnt sie davor, die Rolle von Desinformationen weder zu unter- noch zu überschätzen: „Der Grund für den Erfolg populistischer Parteien wird schnell in Moskau gesucht. Aber die politischen Probleme, die von Desinformationskampagnen genutzt werden können, sind hausgemachte Probleme.“ Und wo die Taskforce dank des höheren Budgets nun Beeinflussung verhindern könnte, mag es knapp sechs Monate vor der Wahl einfach zu spät sein.

Um doch noch ein rechtzeitiges Eingreifen zu ermöglichen, sieht der Aktionsplan der Europäischen Kommission die Einführung eines Frühwarnsystems vor, das in Echtzeit vor Desinformationskampagnen warnt. Dafür sollen auf nationaler Ebene Kontaktstellen eingerichtet werden, idealerweise in Abteilungen für strategische Kommunikation.

Der Begriff der strategischen Kommunikation erlebt seit einigen Jahren eine politische Blütezeit. In Deutschland wurde ein entsprechender Bereich Mitte 2016 als Teil des Auswärtigen Amtes eingerichtet, geleitet von Andreas Kindl.

Nach Veröffentlichung des Aktionsplans warnte Kindl davor, sich mit Russland nur auf einen einzelnen Akteur zu fokussieren. „Das wäre naiv“ schrieb er auf Twitter. Genauso, wie sich alleine auf ein Mittel zu verlassen. Über das Auswärtige Amt äußerte sich Kindl kürzlich zu dem Unterschied zwischen seiner Arbeit und Propaganda. „Wir arbeiten in einem Umfeld von Checks and Balances. Das heißt: Ich kann mir gar nicht erlauben, zu lügen“. Zu groß sei die Kontrolle durch Medien und Abgeordnete im Bundestag. Ob es jemals eine Bot-Armee des Auswärtigen Amts geben werde? „Das würde herausgefunden werden, wenn wir das nur planen würden.“

Die Übernahme von Unitymedia durch Vodafone wird zum Streitfall

Die EU-Kommission könnte in eine intensive Prüfung gehen – und das Bundeskartellamt außen vor lassen. Die Telekom fürchtet einen neuen mächtigen Konkurrenten.

Aus Kreisen der EU-Kommission und mehreren von der Fusion betroffenen Unternehmen ist zu hören, dass Piergiovannis Abteilung mit hoher Wahrscheinlichkeit große wettbewerbsrechtliche Bedenken vortragen und den Fall vier Monate lang intensiver prüfen wird. Der Antrag des Bundeskartellamts in Bonn, ihr die Causa großteils zu übertragen, wäre damit abgelehnt – obwohl die Transaktion, bis auf Einzelgeschäfte in Tschechien, Ungarn und Rumänien, eben zum überwiegenden Teil in Deutschland spielt.

Vodafone begrüßt es ganz offen, wenn die Sache in Brüssel bliebe. Schließlich habe die EU-Kommission auch in der Vergangenheit solche Kabel-TV-Fusionen abgehandelt, erklärt das Unternehmen auf Anfrage. Bestes Beispiel: Vodafone durfte, unter Auflagen, in den Niederlanden ebenfalls von Malone den Kabelnetzbetreiber Ziggo erwerben. Dort bietet man jetzt, ganz nach dem Lehrbuch, alles aus einer Hand: Telefon, Fernsehen, schnelles Internet.

Der deutsche Kartellamtschef Andreas Mundt hat bereits öffentlich den Unitymedia-Deal problematisiert: „Ich kann nur vor voreiligen Schlüssen warnen.“

Bei dem strittigen Vodafone-Deal geht es immerhin um 14 Millionen angeschlossene Haushalte mit fast 30 Millionen Menschen, von denen viele auf Hochgeschwindigkeitsinternet hoffen. In der Vergangenheit hat das Kartellamt wiederholt gegen solche Großdeals im TV-Kabel entschieden.

Nach außen wirkt der Fall Vodafone harmlos. Sogar die Spitzen der Monopolkommission haben keine Einwände. Schließlich überlappen sich die Kabel-TV-Netze nicht. Unitymedia hat in Nordrhein-Westfalen, Hessen und Baden-Württemberg ein Monopol, Vodafone in den anderen 13 Bundesländern, nachdem die Briten 2013 das börsennotierte Unternehmen Kabel Deutschland gekauft hatten.

Doch mit einer Fusion würde der potenzielle Wettbewerb der beiden Fusionspartner auf null gedreht. Schon zuletzt waren sie wenig in die Territorien des jeweils anderen eingedrungen. Vor allem aber sind die Auswirkungen des vereinten Riesen Vodafone/Unitymedia auf vor- und nachgelagerte Geschäfte enorm.

„Da ist etwas allzu sehr in Bewegung geraten“, sagt Axel Gedaschko. „Es gilt, das jetzt zu zügeln.“ Der Präsident des Bundesverbands deutscher Wohnungs- und Immobilienunternehmen fürchtet etwa, dass ein vereinigtes Unternehmen von Fernsehsendern mehr Geld als „Einspeisevergütung“ bekäme. Die Wohnungswirtschaft hätte auch weniger Ansprechpartner: „Das kann uns nicht gefallen.“

Die Wohnungswirtschaft ist für die Kabelnetzbetreiber außerordentlich wichtig, da die Hausbesitzer die Fernsehsignale einfach durchleiten („Gestattungsmarkt“) und die Gebühren bei den Mietern per Sammelinkasso kollektiv kassieren („Nebenkostenprivileg“). Das hebt das TV-Kabel im Vergleich zu Telekommunikationsleitungen deutlich heraus.

Im Kabel-TV-Markt käme der vergrößerte Konzern auf rund 80 Prozent Marktanteil. Es sind gerade die kleinen Kabelunternehmen, die in der Vergangenheit besonders innovativ waren.

„Massive negative Auswirkungen auf Wettbewerb und Medienvielfalt“, sieht Timm Degenhardt, Chef des Kabelnetzbetreibers Tele Columbus (Marktanteil: 13 Prozent). Darüber hinaus würde der Infrastruktur-Wettbewerb gebremst, „was insbesondere zu den reduzierten Investitionen in den Glasfaserausbau und die Breitbandversogung bei Mietern“ führe. Der Aktienkurs von Tele Columbus war im Frühjahr nach Verkündigung des Vodafone-Deals eingebrochen.

Die Branche aufgeschreckt
Das Manöver der Briten mit Unitymedia bringt auf einen Schlag eine ganze Branche in Wallung, auch wenn die öffentliche Debatte hierüber bisher überraschend flau ausgefallen ist.

Längst ist auch den Entscheidern bei der Deutschen Telekom klar, dass sie vor fast 20 Jahren auf Druck der EU-Kommission das falsche Netz verkauft haben: TV-Kabel statt Telefon. Damals übernahmen Regionalgesellschaften das Geschäft, um den Wettbewerb so zu befeuern.

Nun ist das alte Monopol zurück – beim größten Telekom-Konkurrenten. Konzernchef Timotheus Höttges begrüßt deshalb „ausdrücklich den Versuch, das Kartellverfahren nach Deutschland zu holen“ – zu den bissigeren Beamten in Bonn.

Ein vertrauliches Papier der Deutschen Telekom listet auf, dass Vodafone nun die Kunden auf der Kabelplattform binden könne und so „konkurrierende Glasfaser-Investments behindert“. Hier sei die nötige kritische Masse nicht zu erreichen, der Start der überlegenen Technologie werde verzögert. Bei den genutzten Rechten für Pay-TV käme ein Marktanteil von rund 40 Prozent zustande, der später dann wahrscheinlich stark ansteigen werde.

Die Telekom fürchtet sogar, dass der Konkurrent eines Tages womöglich die Live-Rechte an der Fußball-Bundesliga exklusiv kauft. Schließlich hatte sich Unitymedia vor einigen Jahren mit der damaligen Tochter „Arena“ schon einmal zu einem solchen Manöver entschlossen.

Natürlich hat die Telekom vor einem erstarkten Wettbewerber Angst. Im Mobilfunk ist ihr Vodafone dicht auf den Fersen. Mit einem deutschlandweiten Angebot mit Kabel-Internet könnte der Anbieter zum ebenbürtigen Konkurrenten aufsteigen.

Nicht nur das: Die TV-Kabel haben einen technischen Vorteil. Sie bieten schon heute mit einer relativ kostengünstigen Aufrüstung Internetgeschwindigkeiten von bis zu einem Gigabit pro Sekunde. Das können die dünnen Kupferdrähte der Telekom-Telefonkabel nicht leisten. Sie muss langfristig Glasfaser bis ans Haus legen.

Sind die Warnungen vor der Fusion berechtigt? Oder sind es nur übersteigerte Ängste? Vodafone kontert die vielen Anwürfe aus der Branche. Man presse zum Beispiel den Sendern nicht mehr Geld ab, sondern das neue Vergütungsmodell mit ARD und ZDF sähe geringere Zahlungen vor.

Dieses neue Modell biete man inzwischen auch allen Privatsendern an. Anders als Telekom oder Telefónica Group produziere man keine eigenen Inhalte und strebe auch nicht danach. Der Kauf der TV-Bundesliga ist demnach kein Thema. Vodafone sieht sich als „digitalen Medienkiosk“.

Durch den Kabel-Deal bekomme die Telekom erst richtig Konkurrenz. Vodafone argumentiert: Es entstehe ein „zweiter, starker Infrastrukturwettbewerber“, wie er in vielen EU-Ländern den ehemaligen Monopolisten gegenüberstehe.

Tatsächlich käme ein genehmigter Vodafone/Unitymedia-Koloss im gesamten Breitband-Markt für schnelleres Internet auf 30 Prozent Marktanteil. Der Telekom-Anteil ist knapp unter 40 Prozent gefallen. Der Bonner Konzern, zu 32 Prozent im Staatsbesitz, hat aber bereits 500.000 Kilometer Glasfaser in Deutschland verlegt, Vodafone kommt im Vergleich nur auf 100.000 Kilometer.

Widerstand gegen das „Gigabit“-Marketing
Der britische Konzern kündigt jetzt an, in der Republik Glasfaser dort auszubauen, wo es „am nötigsten ist“, auf dem Land und in Industrieparks. Der charismatische Deutschlandchef Hannes Ametsreiter wird nicht müde, 25 Millionen Gigabit-Anschlüsse bis 2022 in Aussicht zu stellen. Schon im September 2017 – also lange vor dem Deal mit Unitymedia – hatte Vodafone solche erheblichen Digitalinvestitionen für eine neue „Gigabit-Gesellschaft“ angekündigt.

Gegen das „Gigabit“-Marketing des Konzerns und die geplante Fusion formiert sich Widerstand an einer weiteren Stelle. Alternative Netzbetreiber, besonders regionale Stadtwerke, haben in den vergangenen Jahren den Glasfaserausbau bis ans Haus vorangetrieben. Doch sie fürchten, dass ihnen ein Duopol aus Telekom und Vodafone gegenübersteht. Die Branchenverbände Buglas und Breko sind daher gegen den Deal.

Auch in den Niederlanden, wo Vodafone das Kabelnetz von Ziggo kaufte, entstand ein solches Duopol. Auf der anderen Seite der Platzhirsch KPN – entstanden aus der Privatisierung des Staatsunternehmens PTT. Notgedrungen entschloss sich die nationale Wettbewerbsbehörde ACM in diesem Jahr zu mehr Regulierung: Alternative Anbieter sollen das niederländische Kabelnetz von Vodafone nun ebenfalls nutzen können.

In den anstehenden Kartellverhandlungen wird es auch um solche Ideen gehen („Kapazitätseffekt“). Wie im deutschen Telefonnetz der Telekom müssten sich dann auch Dritte ins Vodafone-Kabelsystem einmieten können. „Eine Genehmigung der Fusion ohne Auflagen ist nicht denkbar“, resümiert Wohnungsverbandschef Gedaschko. Ein harter Kampf um Details steht bevor.

Den Gang zur EU-Wettbewerbskommission hat Vodafone mit einer Schar externer Anwälte generalstabsmäßig vorbereitet. Im Aufsichtsrat von Vodafone Deutschland sitzt mit der Ex-CDU-Größe Roland Koch ein ausgewiesener politischer Netzwerker. Nicht von Nachteil dürfte zudem sein, dass just am 1. Oktober der Volkswirt Reinald Krueger von der EU-Kommission zu Vodafone in London als „Group Public Policy Development Director“ wechselte.

Bei der jetzt anstehenden vertieften Prüfung hätten Referatsleiter Piergiovanni und sein Team noch mal 90 Arbeitstage Zeit. Eine endgültige Entscheidung fiele dann im April – nach dem Brexit, also dem Ausstieg Großbritanniens aus der EU. Dann würde auch Vodafone gesellschaftsrechtlich nicht mehr zur Union und zum unmittelbaren Geltungsbereich der EU-Kommission gehören – eine missliche Situation.

In eingeweihten Kreisen ist zu hören, dass Vodafone intern im Zuge der Gespräche überlegen soll, den Hauptsitz der Gesellschaft von London weg zu verlegen. Dort wird widersprochen. „Wir haben keine Pläne, unseren Standort zu verlagern“, sagt ein Sprecher. Der Brexit werde „keine signifikanten Auswirkungen“ auf das Geschäft haben.

Trotzdem laufen Gedankenspiele über einen Umzug in die EU. Eine Variante sieht vor, dass die Deutschlandzentrale in Düsseldorf zum Zuge kommt – und einzelne Aufgaben auf andere Standorte in der Bundesrepublik verlegt werden. Auch ist Amsterdam im Gespräch, wo viele Holdingfirmen große Steuervorteile nutzen. Sowie schließlich jene Stadt, in der jetzt EU-Referatsleiter Piergiovanni und die anderen Wettbewerbswächter ihre Arbeit verrichten: Brüssel.

So plant Axel Springer seine Zukunft

Axel Springer stellt wichtige Weichen für die Zukunft des Medienkonzerns: Jan Bayer soll den Konzern international ausbauen. Er ist zudem Favorit für die Nachfolge von Vorstandschef Mathias Döpfner. Dieser dürfte Friede Springers starker Mann im Hintergrund werden.

Springer baut für die Zukunft vor, in jeder Hinsicht. Das zeigen zwei Meldungen aus den vergangenen Tagen. Zunächst war es an Friede Springer: Die Witwe des Verlagsgründers regelt derzeit ihr Erbe. Im ersten Schritt gelang es ihr, die Enkel von Axel Springer zum Ausstieg aus der Gesellschaft für Publizistik (GfP) zu bewegen und stattdessen direkte Aktionäre bei der Axel Springer SE zu werden. Damit hat Friede Springer in der GfP das alleinige Sagen und kann ihre Anteile im zweiten Schritt auf eine von ihr geplante gemeinnützige Gesellschaft übertragen. Zu gegebener Zeit wird sie dort nach derzeitigem Stand den heutigen Vorstandschef Mathias Döpfner als Geschäftsführer einsetzen. Sein Wechsel in den Aufsichtsrat wäre damit absehbar.

Das führt zur zweiten Meldung, der Neuordnung des Vorstands. Jan Bayer gibt die Zuständigkeit für die nationalen News Media an Stephanie Caspar ab. Damit sind die erst kürzlich nach digitalem und gedrucktem Verbreitungsweg getrennten Medienmarken mitsamt Vermarktung, Vertrieb und Druckereien auf Vorstandsebene wieder in einer Hand. Von der Verantwortung für das nationale Mediengeschäft entlastet, kann sich Bayer auf den Ausbau des internationalen Geschäfts konzentrieren, insbesondere in den USA. Die eine oder andere Akquisition ist dabei zu erwarten. Im Zentrum aber steht neben der nach internationaler Expansion strebenden Marke Politico die inzwischen in 17 Ländern vertretene Marke Business Insider. Springer nennt sie neuerdings „unsere strategisch wichtigste Marke“. Das ist bezeichnend. Einst war das Bild. Das ist vorbei.

Bild mag mehr als 400.000 zahlende Digital-Abonnenten haben, hier und da einen Prozentpunkt Marktanteil erobern, doch der Niedergang der Marke hat begonnen. Der immense Auflagenschwund drückt jetzt auch auf die Erlöse. Noch mag das zu lindern sein, indem mal hier am Seitenumfang einer Regionalausgabe gespart wird und mal dort eine vakante Stelle mit Verzögerung nachbesetzt wird. Dem Vorstand aber ist klar: Die Profitabilität von Bild nimmt ab. Döpfners Vor-Vorgänger Jürgen Richter sagte einmal, dass Springer eine Lungenentzündung bekomme, wenn Bild einen Schnupfen habe. Heute darf das nicht mehr passieren. Der Konzern verlagert sein Augenmerk daher auf ein Geschäft mit Zukunftspotenzial – und das ist Business Insider, eine ausschließlich digitale, auf die Entscheider von morgen ausgerichtete Marke, 2007 vom gefallenen Börsen-Star Henry Blodget gegründet und 2015 von Springer für sagenhafte 390 Millionen Euro erworben.

Döpfner hat in jüngster Zeit keine Gelegenheit verstreichen lassen, explizit auf die Erfolge von Business Insider hinzuweisen. Mit dem lukrativen Geschäftsfeld der Classified Media kann er zwar finanziell Muskeln zeigen, publizistisch ist mit den Kleinanzeigen aber kein Staat zu machen. Mit Business Insider zumindest in Deutschland bisher allerdings auch nicht.

Die Zukunft des Springer-Konzerns wird allerdings nicht in der Karlsruher Gartenstraße entschieden, wo der hiesige Ableger des Wirtschaftsportals seinen Sitz hat. Auf Horizont-Nachfrage kündigte Döpfner bereits im Sommer an, die Redaktion, die bisher gerade einmal ein Dutzend Mitarbeiter hat, „ordentlich ausstatten“ zu wollen, damit sie nicht nur mit profanem Clickbaiting, sondern auch publizistisch punkten kann. Ein Umzug nach Berlin ist denkbar.

Dennoch: Nicht die Performance der deutschen Länderausgabe ist entscheidend, sondern das globale Potenzial des journalistisch um Welten anspruchsvolleren New Yorker Originals. Mit seinen Verticals wie Markets Insider, Business Insider Intelligence oder der Konferenz Inside Trends schreibt das Portal bei monatlich 350 Millionen Zugriffen in diesem Jahr erstmals schwarze Zahlen.

Wenn nun also Business Insider mittel- bis langfristig dazu auserkoren ist, Bild auch wirtschaftlich den Rang als bedeutendste Springer-Marke abzulaufen – und genau das wird Jan Bayers Aufgabe sein –, lässt sich leicht ausmalen, wer nach derzeitigem Stand eines Tages Döpfner an der Konzernspitze nachfolgen dürfte.

Döpfner hat den 48-Jährigen 2006 vom Süddeutschen Verlag abgeworben, zunächst als seinen Büroleiter. Inzwischen ist Bayer der Mann seines Vertrauens. Nach der Trennung von Springers US-Manager Jens Müffelmann ist er nicht nur der Mann fürs internationale Geschäft. Bayer soll die Zukunft Axel Springers sichern. Sie könnte seine eigene werden.