Xaver, Sandy und Co: Quellencheck von Twitter-Fotos

Das einzige, was unsere moderne Welt noch aus den Angeln heben kann, sind: Naturkatastrophen. Da Erdbeben und Meteoriten hierzulande nicht so häufig sind, bleiben uns vor allem Unwetter und Hochwasser. Unwetter-Sondersendungen erreichen Rekordeinschaltquoten und entsprechende Online-Artikel treiben die Klickzahlen in die Höhe. Vor allem, wenn die Bilder mächtig und bedrohlich wirken.

In solchen Situationen greifen Journalistinnen und Journalisten, die in Onlinemedien arbeiten, gerne auf Material aus den Sozialen Netzwerken zurück. Zusätzlich zu den Nachrichtenagenturen gibt es bei Facebook, Twitter, Instagram und Co. Fotos von der „Crowd“ da draußen. In Fällen wie Sturmtief Xaver ist Crowdsourcing in der Tat eine gute Möglichkeit für einen Newsroom, die Quellenlage zu erweitern. Wie sieht es auf Helgoland aus? Ist der Hamburger Fischmarkt schon überschwemmt? Und halten die Deiche an der Nordseeküste?

Twitter = Kein KurzNACHRICHTENdienst ?

Das Misstrauen vieler Nachrichtenkolleginnen und –Kollegen gegenüber Informationen aus den Sozialen Netzwerken ist nach wie vor groß. Noch vor ein paar Tagen durfte ich auf Einladung von GEP, Grimme Institut und ARD.ZDF-Medienakademie auf dem Podium bei den Frankfurter Hörfunkgesprächen über dieses Thema diskutieren. „Bei uns heißt Twitter nicht ‚Kurznachrichtendienst‘ – denn Nachrichten werden dort nicht verbreitet. Das machen wir“, sagte Ulli Janovsky, Leiter der Hörfunknachrichten beim Hessischen Rundfunk. Dort vertraut man vor allem auf die Agenturen und die eigenen Reporter und Korrespondenten vor Ort.

Als zusätzliche Quelle immer wichtiger

Und dennoch: Vor allem bei „Breaking News“ wird Twitter für Journalistinnen und Journalisten in Nachrichtenredaktionen immer wichtiger. Die Reporter vom NDR konnten während der letzten Elbeflut so Informationen aus erster Hand bekommen, ich Echtzeit. Und wussten so von anlaufenden Evakuierungen noch bevor die Bestätigung von Krisenstab vorlag.

Der „Frankenstorm“ Sandy in den USA hat aber auch gezeigt: Nicht allen Fotos von gewaltigen Wolkenfronten, Überschwemmungen ist zu trauen. Photoshop lernt man heute bereits in der Schule – und eine Montage ist schnell gemacht und ins Netz gestellt. Das erste Foto dieses Mashable-Artikels scheint aus einem Roland Emmerich-Blockbuster zu stammen. Und in der Tat haben viele namhafte Medien das Bild gedruckt, gesendet, weiterverbreitet. Dass es sich um einen Fake handelte, war vielen Journalistinnen und Journalisten nicht klar.

Der Trick: Bilder-Rückwärtssuche

Dabei gibt es mittlerweile gute Werkzeuge, um so etwas herauszufinden. Bei Fotos ist das zum einen die Google Bilder Rückwärtssuche und die Webseite Tineye.com. Bei beiden kann man ein Foto hochladen, das dann auf seine Farb- und Helligkeitswerte untersucht wird. Die beiden Suchmaschinen spucken als Resultat nicht nur Webseiten aus, auf denen das Foto verwendet wurde (vielleicht wurde es auf einigen Seiten bereits als Fake entlarvt), sondern zeigen auch optisch ähnliche Bilder. Wenn eine Montage aus zwei Bildern zusammengesetzt ist, kann man so die Originalbilder finden. Bei dem „Sandy“-Foto wird schnell klar: Es ist eine Montage aus einem Foto der Freiheitsstatue sowie einem Bild einer Tornado-Superzelle, das erstmals 2004 findet.

Auch bei „Xaver“ gab es wieder falsche Bilder, die sogar teilweise von den Mainstream-Medien aufgegriffen wurden. Ich selbst habe eine – sehr offensichtliche – Montage verbreitet, die den Hamburger Hafen zeigt. Das Foto wurde hunderte Male re-tweetet – und oft als echt erachtet. An dieser Stelle sei hingewiesen auf das Original-Bild von enbodenumer auf Flickr, das dort unter einer CC BY-NC-SA 2.0 veröffentlicht wurde.

„Falsch“ bedeutet übrigens nicht unbedingt gephotoshoppt. Oft handelt es sich um ein viel älteres Bild, oder es zeigt einen anderen Standort als in dem Text/Tweet angedeutet. Die Kollegen der Rhein-Zeitung haben eine schöne Bildergalerie zu den aktuellen Fakes zusammengestellt.

GPS-Standort in den Exif-Daten

Eine weitere Möglichkeit neben der Rückwärtsuche ist die Metadaten-Analyse. Man kann sogenannte Exif-Daten aus Bildern auslesen zu lassen, zum Beispiel mit dem Firefox Plugin „Exif Viewer“. In den Exif-Daten stehen über 100 Informationen, vom Zeitpunkt der Aufnahme, über Blende, Blitz, Belichtung bis hin zu einem Mini-Thumbnail des Originalbildes und den GPS-Daten. Mit einem Klick öffnet sich die Google Map und zeigt den Standort des Fotografen an. Dafür muss das Foto mit einem Handy oder einer GPS-fähigen Kamera aufgenommen worden sein.

Das Problem mit den Exif-Daten: Beim Hochladen auf Twitters Fotoplattform, auf Facebook oder Instagram werden diese Metainformationen gelöscht.

Redaktionen, die Bilder aus Twitter verwenden wollen (z.B. zum Abdruck) sollten deshalb folgenden Weg gehen: Da sie nach deutschem Recht eh die Nutzungsrechte einholen müssen, sollten sie sich das Original-Foto noch einmal per Email als JPG-Datei mailen lassen. Da ist nicht nur die Auflösung besser, sondern auch die Exif-Daten bleiben erhalten. (Wichtig: Theoretisch lassen sich natürlich auch Exif-Informationen manipulieren.)

Auf Details achten

In den Social Media-Recherche-Workshops, die ich z.B. für die ARD.ZDF-Medienakademie leite, geht es aber nicht nur um die technische Überprüfung. Vielmehr sollen die Kolleginnen und Kollegen auch einen Blick für die Details bekommen. Denn auf den Fotos selbst sind Informationen zu sehen, die sich verifizieren und falsifizieren lassen, z.B.:

  • Kleider
  • Straßen
  • Häuser
  • Fahrzeuge (u.a. Steuer links od. rechts?)
  • Kennzeichen
  • Flaggen
  • Waffen
  • Wetter
  • Schatten

Im Zweifel: Nicht veröffentlichen

Am Ende sind dies aber auch nur Hinweise. Im Zweifel sollten sich Journalistinnen und Journalisten auf zwei Dinge besinnen. Erstens: Die goldene Regel, dass es immer mindestens zwei Quellen (= zwei Fotos) von dem gleichen Ereignis geben muss. Zweitens: Wenn ein Foto zu gut ist, um wahr zu sein, dann ist es häufig genau das: nicht wahr.

The Twitter Search is broken – are they going to fix it?

I work as a journalist and media trainer literally around the globe. For journalists, Twitter is becoming more and more important as a news source. As a journalist, you don’t have to tweet yourself, but you have to know how Twitter works and how you can suck first-hand information out of it – that’s my mantra.

The problem is: For some time now, Twitter’s own search seems to be broken.

In the list of search operators (go to https://twitter.com/search-home and click on “operators”), Twitter lists the operator “near”.

Twitter’s search operators

The near operator is supposed to give you results from a specific location, let say my hometown Hamburg or Manila on the Philippines. But if you try the operators near:”Hamburg” within:15mi (you can use the advanced search, too), you will get results that show everything – but almost no tweets from Hamburg. In fact, some of the tweets are geo-located in Scotland or Asia:

There are some Twitter tools which you can use to look for geo-located tweet, like Geofeedia and Geochirp. But it is sad, that Twitter’s own search seems to be so unreliable.

Maybe the should team up with Google again. ;)

Kurz protokolliert 21/08/13: WordPress, Google Forms, Journalismus

Uni-Profs fordern eine Bundesanstalt für Suchmaschinen-Ranking-Kontrolle (BfSRK)

Überrascht hat mich diese Meldung wenig: Nur weniger Nutzer können mit Suchmaschinen richtig umgehen. Das ist das Ergebnis einer Studie der Johannes Gutenberg-Universität Mainz. Das Forschungsprojekt “Die Googleisierung der Informationssuche” ist dort Teil des Forschungsschwerpunkts Medienkonvergenz.

In der Pressemitteilung der Uni heißt es etwa:

  • „Viele nutzen die Google-Internetsuche weitgehend unkritisch und wissen nur wenig darüber, wie Trefferlisten zustande kommen und wodurch diese beeinflusst werden.“
  • Und: „Der Großteil der Befragten bewertet die eigene Kompetenz im Umgang mit Suchmaschinen als gut, schneidet in einem formalen Wissenstest über die Funktionsweise von Google aber schlecht ab.“

Seit Jahren schule ich Journalisten in den Strategien und Werkzeugen der Internet-Recherche (unter anderem für die ARD-ZDF-Medienakademie). Und in den Workshops zeigt sich tatsächlich, dass auch viele Journalisten wenig über die Funktionsweise von Suchmaschinen wissen. Übrigens sind junge, angeblich Internet-affine Volos oft nicht besser. Dabei gehört es zu dem Berufsbild, Informationen zu sammeln, zu bewerten und zu bündeln. Und die kommen immer öfter aus dem Netz. Für viele Journalistinnen und Journalisten ist Google der Startpunkt für jede Recherche.

Ich frage die TeilnehmerInnen am Anfang immer, was sie über Google, Bing und Co. wissen. Folgende Punkte werden immer wieder genannt:

  • Google findet alle Dokumente, die im Netz stehen
  • Unternehmen können mit Geld ihr Ranking beeinflussen
  • Google zensiert nicht
  • Google durchsucht das Internet in dem Moment, in dem ich ein Suchbegriff eingebe und auf „Suchen“ klicke
  • Wenn ich in München nach dem Wort „Pizza“ suche, kommen die gleichen Ergebnisse wie in Hamburg
  • Die Anzahl der Suchtreffer, die Google angibt, stehen für Relevanz („Lady Gaga hat mehr Suchergebnisse als Angela Merkel – also ist sie wichtiger!“)
  • Google ist gefährlich – und am liebsten würde ich es gar nicht mehr nutzen

Unwissenheit erzeugt Angst

Der letzte Punkt fasst ziemlich gut zusammen, was ein Jahrzehnt hysterische Google/Datenschutz-Berichterstattung angerichtet hat. Nämlich dass es bei dem Thema nicht um Wissen und Funktionsweise von Suchmaschinen geht, sondern ums Bauchgefühl.

Ich bin der letzte der Google in Schutz nimmt (siehe dazu u.a. meinen Beitrag über Google Fiber). Klar, lässt sich darüber streiten, was der weltgrößte Werbekonzern (das ist Google nämlich aus) mit meinen Daten heute und vor allem in 20, 30, 40 Jahren anstellen wird. Aber das geht nur, wenn neben den Gefühlen auch die technischen Hintergründe und Funktionsweise bekannt sind.

Komische Forderung: Der Staat soll Google stärker regulieren

Deshalb stimme ich auch nicht mit der Schlussfolgerung von Birgit Stark, Dieter Dörr und Stefan Aufenanger überein: „Angesichts der mangelnden Suchmaschinenkompetenz vieler Internetnutzer sehen die Autoren der interdisziplinären Studie “Die Googleisierung der Informationssuche” die Notwendigkeit, Suchmaschinen stärker als bisher medienrechtlich zu regulieren“, schreiben sie in der Zusammenfassung der Studie.

Das verstehe ich nicht. Weil die Nutzerinnen und Nutzer nicht wissen wie es geht, soll der Staat regulierend eingreifen? Wirklich? Vergeben Sie mir den platten Vergleich, aber: Auf dem Aktien- und Derivate-Markt darf jeder Depp mitspekulieren. Dort blickt auch kein Normalmensch durch. Und wie das Geschäftsjahr 208/2009 gezeigt hat, ist er erwiesenermaßen längst nicht ausreichend reguliert.

octopus vulgaris

Das ist sie wieder, die Datenkrake. Das Foto steht unter einer CC-By-NC-SA 2.0 Lizenz Joachim S. Müller – dem besten Krakenfotografen bei Flickr.

Suchmaschinenanbieter ohne Ranking?

Während sie in der Studie die Unwissenheit der Testpersonen beklagen, geraten die Forscher bei Ihren Empfehlungen selbst aufs Glatteis:

„Als Ansatzpunkte einer sinnvollen Regulierung identifiziert die Mainzer Studie drei zentrale Orientierungspunkte für eine Neuregulierung: Neutralität, Transparenz und Kompetenz. Neutralität bezeichnet gleiche Chancen auf aussichtsreiche Rankingplätze in Trefferlisten für alle Anbieter von Webinhalten. Um den Nutzern eine solche neutrale Auswahl aus dem gesamten Angebotsspektrum zu ermöglichen, dürfen Suchmaschinenbetreiber keinen Einfluss auf das Ranking von Suchergebnissen nehmen.“

Wie bitte, soll das gehen? Der Suchmaschinenanbieter muss Einfluss auf das Ranking nehmen. Deshalb machen wir ja den ganzen Spaß: Google, Bing und Co. sind ein Filter um den ganzen Mist des Internets für uns zu sortieren. Das funktioniert mal schlechter, mal besser (übrigens besser, wenn man diese Filtertechniken beherrscht, siehe z.B. Google Operatoren).

Und sortieren heißt nichts anderes als: ranken. Entscheidungen treffen. Das Schlechte (= Spam) aussortieren. Das Gute höher zu bewerten. Ich habe noch keine Beschwerden gehört, dass Google in seinen Ranking Wikipedia-Artikel als relativ hochwertige Quelle definiert und diese demnach auch im Ranking weit oben dabei sind.

Googles Spam-Bekämpfer Matt Cutts erklärt in einem Video (das sich alle mal ansehen sollten, die Google verstehen wollen – es gibt auch deutsche Untertitel), dass Google mehr als 200 Faktoren für das Ranking untersucht. Im TWIG-Podcast sagte Cutts zudem kürzlich, dass der Ranking- Algorithmus im vergangenen Jahr fast 200 Mal geändert wurde. Im Klartext heißt das: An fast jedem Werktag wird an den Ranking-Faktoren herumgeschraubt.

Die Bundesanstalt für Suchmaschinen-Ranking-Kontrolle (BfSRK) nimmt die Arbeit auf

Die Uni-Professorinnen und Professoren fordern: „Transparenz zielt auf die hinreichende Offenlegung der Funktionsweise von Suchmaschinen, um interne und externe Manipulationen und Verfälschungen der Trefferlisten erkennen zu können. Die Manipulationsgefahr muss auch stärker in das Bewusstsein der Nutzer rücken.“

Und wer soll das erkennen? Eine Regierungsbehörde wahrscheinlich. Eine, die den ganzen Tag Trefferlisten vergleicht. Viele davon. Da braucht man viele Mitarbeiter. Und Uni-Professoren, die im Forschungsbeirat sitzen. (Bitte entschuldigen Sie diesen unjournalistischen Seitenhieb ;)

Statt Regulierung: Filtertechniken schulen – in Schule und Uni

Meine Alternativvorschlag wäre dieser hier: Nicht nur Journalisten sondern alle Internetnutzerinnen und –Nutzer brauchen ein besser Verständnis darüber, wie das Internet funktioniert – und wie Suchmaschinen funktionieren, effektiv eingesetzt werden können und wo die Gefahren für die Privatsphäre liegen. Oder wie sich die in der Studie kritisierten „Personalisierungsprozesse“ mit ein paar einfachen Handgriffen (Browsereinstellungen und Firefox-Plugins) größtenteils verhindert werden können.

Die Forderung ist nicht neu, aber immer noch wichtig: Schulen und Universitäten sollten viel weniger Wert auf die Vermittlung von Faktenwissen legen. Was Menschen im Informationszeitalter brauchen sind: Filtertechniken. Also die Strategie und das Handwerkszeug, in großen Informationsmengen das Gewünschte zu finden.

Faktenwissen könnte in 20-30 Jahren überholt sein. Die Fähigkeit, filtern zu können, wird es nie sein.

 

[Nachtrag]: Natürlich – mein Job ist es u.a. Journalisten und andere in diesen Filtertechniken zu schulen. Ich schreibe das hier nicht, weil ich Aufträge brauche, sondern weil ich solch eine Regulierung für den falschen Ansatz halte. Einen, der Menschen für dumm verkauft.

Digitales Büro für Journalisten und Journalistinnen: Mein Setup

Ende Juli war ich zu Gast bei der Henri-Nannen-Schule, um mit den Schülerinnen und Schülern des neuen Jahrgangs das weite Feld der digitalen Werkzeuge abzuschreiten. Werkzeuge, die Journalistinnen und Journalisten für ihre tägliche Arbeit nutzen können.

Einige dieser Tools nutze ich selbst und habe sie in meine Arbeit integriert, andere habe ich lediglich gezeigt (weil sie entweder Copycats sind oder sich nicht in meine Umgebung integrieren ließen). Nicht alle Werkzeuge sind für alle Journalisten nutzbar oder sinnvoll. Vor allem, wenn man in eine feste (= meist unflexible) IT-Struktur eingebunden ist, hat man wenig Spielraum. Als freie/r Journalist/in kann und muss man sein eigener IT-Support sein.

Die Herausforderung: Mobil und Multi-Plattform

Wer als Journalist viel unterwegs ist und/oder an mehreren Rechnern arbeitet, ist darauf angewiesen, dass man von überall auf seine wichtigen Daten zugreifen kann. Vor allem der Kalender ist wichtig, um Termine, Interviews, Drehs und Produktionen zu planen. Aber auch die Kontaktdaten sollten überall verfügbar sein – und editierbar: Wer unterwegs Anrufe bekommt, möchte manchmal die Nummer speichern und den Kontakt später am PC weiter bearbeiten.

Das Zauberwort lautet Synchronisation. Aber wie lassen sich Daten zwischen mehreren Plattformen (Büro-PC, Laptop, Tablet, Smartphone) synchronisieren? Dafür braucht man einen Platz im Internet, der meine Daten speichert und zwischen den verschiedenen Geräten austauscht – neudeutsch spricht man auch von „cloud computing“.

Das Herz: Owncloud

Owncloud ist eine open source-Software, die viele Funktionen bestehender Cloud-Dienste bündelt. Mit Owncloud lassen sich unter anderem

  • Dateien online speichern, archivieren, von unterwegs abrufen und mit anderen Nutzerinnen und Nutzern teilen (wie bei Dropbox).
  • Kalender online verwalten (wie bei Google Calendar).
  • Notizen online verwalten (wie bei Google Calendar oder RememberTheMilk).
  • Lesezeichen online verwalten (wie bei Delicious).
  • Kontakte online verwalten (wie bei Google Contacts)
  • RSS-Feeds sammeln und lesen (wie beim Google Reader, R.I.P.).

Der Vorteil bei Owncloud: Die Daten werden auf meinem eigenen Server gespeichert. Das heißt, Google, Dropbox und Co. bekommen die Inhalte nicht zu Gesicht. Einzig der Internet-Hosting-Provider, auf dessen Servern man Webspace gemietet hat, hat Zugriff auf die Daten. Wer ganz autark sein will, kann sich auch einen Server selbst bauen und ins Wohnzimmer stellen.

Als einzige Kosten fallen also die monatlichen Gebühren für Webspace an. Wer bereits seine Webseite bei einem Hosting-Provider laufen lässt, muss oft keine Extrakosten zahlen. Bereits das kleinste Hosting-Paket meines Providers all-inkl kann man für die Installation der Owncloud nutzen.

Die Installation ist etwas kniffelig, man kann es entweder selbst per Hand erledigen oder bei manchen Providern über automatisierte Installationsskripte (bei all-inkl kann man im Kasserver-Backend über das Menü “Tools > Softwareinstallation” aus der Softwareliste “Owncloud” auswählen). Für die mobile Nutzung auf meinem Android-Telefon müssen noch drei kostenpflichtige Apps hinzugefügt werden: Die Owncloud-App (für den Dateiaustausch), die CalDav-App (für die Synchronisation von Kalender und Notizen) sowie die CardDav-App (für die Kontakte.)

Auf dem Rechner lässt sich die Owncloud entweder über den Browser verwalten – oder über die entsprechenden Programme. Für den Dateiaustausch (=Dropbox) kann man unter Windows, Mac und Linux eine Sync-Software installieren. Mein Email-Programm Thunderbird kann über das Add-On Lightning die Kalender- und Notiz-Daten synchronisieren, und mit etwas Umständen auch die Kontakte. Die Notizen lassen sich beispielsweise unten rechts im Email-Hauptfenster anzeigen, die Termine oben rechts neben den Emails. So hat man immer alle wichtigen Funktionen im Überblick.
Ich nutze allerdings nicht alle Owncloud-Möglichkeiten, sondern vor allem die Kalender-, Kontakt-, Notiz- und Dateiaustausch-Funktionen von Owncloud.

Lesezeichen 3.0

Wer oft auf interessante Seiten und Artikel im Netz stolpert, kann sie als Browser-Lesezeichen speichern. Allerdings wird die Lesezeichen-Liste ziemlich schnell ziemlich unübersichtlich. Unter den ersten Sozialen Netzwerke, die ich genutzt habe, war eines für sogenanntes „Social Bookmarking“: Delicious. Mit Delicious lassen sich Lesezeichen für interessante Seiten anlegen und in der Cloud speichern. Sie werden allerdings nicht wie Dateien in einer Baum-/Ordner-Struktur abgelegt, sondern mit sogenannten „Tags“ versehen – kurzen Stichworten, die mir das Auffinden erleichtern. Wenn ein neuer Beitrag zum Thema „Kaffee“ naht, kann ich relativ schnell auf alle meine Delicious-Lesezeichen zurückgreifen, die ich zuvor mit dem Schlüsselwort „Kaffee“ getagged habe. Zudem – und das ist das „soziale“ am „Social Bookmarking“ – kann man anderen Menschen folgen, die interessante Dinge bookmarken.

Der Dienst gehörte lange zu Yahoo, wurde dann von der ursprünglichen Entwicklerfirma vor dem Aus gerettet und weiterentwickelt. Delicious war und ist kostenlos – und der Vorfall hat jedoch gezeigt, dass dies ein Risiko für das Überleben eines Dienstes sein kann.

Deshalb bin ich zeitgleich mit vielen anderen auf den kostenpflichtigen Dienst Pinboard.in umgestiegen. Die einmalig zu zahlenden rund 10 US-Dollar in der Basis-Version sind gut angelegtes Geld. Per Bookmarklet lassen sich besuchte Seiten schnell als Lesezeichen speichern. Es gibt zudem eine teurere Variante, die nicht nur meine Lesezeichen speichert, sondern auch eine Version der Seite. Falls diese offline sein sollte, kann ich immer noch auf die bei Pinboard gespeicherte Version zurückgreifen. (Alternativ lässt sich das auch mit dem Firefox Add-on Scrapbook erledigen).

Ein weiterer Vorteil von Pinboard: Jeder Tweet, den ich in Twitter oder Tweetdeck als Favorit markiere, wird automatisch gebookmarkt. So lassen sich interessante Links in Tweets schneller speichern.

Für Android gibt es zudem eine Android-App für Pinboard.

Leseliste: Pocket

Anders als Pinboard oder Delicious speichert Pocket den Text des Artikels in der Cloud ab. Das ist vor allem praktisch, wenn man interessant Artikel nicht gleich lesen kann, sondern sie sich zum Beispiel für lange Zugfahrten oder Flüge aufheben möchte.
Über das Firefox-Add-On lassen sich Artikel mit einem Klick auf das Symbol in der Adressleiste bei Pocket speichern. Ist das Smartphone oder Tablet am Netz, werden automatisch über die App die Texte synchronisiert. Weiterer Pluspunkt: Die Texte sind auf das Wesentliche reduziert und damit sehr gut lesbar.

Schönes im Abo: RSS

Durch Twitter haben RSS-Feeds an Bedeutung verloren, jedoch stoße ich in meinen abonnierten Feeds immer wieder auf interessante Themen und Artikel, die ich woanders noch nicht gesehen habe. Außerdem sind RSS-Feeds als Themen-Finder praktisch: Man kann Feeds zu den Themen abonnieren, die man als Journalist beackern muss – und wenn dann die Redaktion wieder ein Beitrag zu dem Thema plant, muss man lediglich in seinem RSS-Reader das Stichwort eingeben und bekommt eine bereits gefilterte Liste an oft relevanten Artikeln zu dem Thema.

RSS-Feeds bieten die Möglichkeit, Inhalte von Webseiten (Nachrichtenseiten, Blogs) zu abonnieren – ähnlich wie ein Zeitungsabo. Statt eines Briefkastens braucht man dafür einen Feed-Reader. Dabei gibt es mehrere Varianten:

  • Fast alle Emailprogramme beinhalten eine RSS-Funktion,
  • es lassen sich Desktop-Feedreader unter Windows und MacOS installieren,
  • man kann Cloud-basierte Feedreader nutzen.

Der Vorteil der letztgenannten Variante ist, dass man (wenn man mehrere Geräte nutzt) Inhalte nicht mehrmals liest, sondern dass sich die Feedliste automatisch synchronisiert.

Nach dem Aus für den Google Reader ist es nicht einfach geworden, etwas Vergleichbares zu finden. Bei mir haben gleich zwei RSS-Reader den Platz übernommen: Fever und TT-RSS. Beides muss ähnlich wie Owncloud auf dem eigenen Webspace installiert werden.

Während TT-RSS wie ein herkömmlicher Feedreader funktioniert, sortiert Fever die Artikel nach “Fiebergrad” – per Algorithmus werden die meistdiskutierten Themen gebündelt angezeigt.

Auf dem Laufenden bleiben mit Podcasts

Podcasts bieten eine gute Möglichkeit, auf dem Laufenden zu bleiben. Man kann allgemeine Sendungen verschiedener Radiosender abonnieren (Nachrichten von der BBC, Hintergrund-Stücke vom DLF) oder Podcasts zu Spezialthemen abonnieren. Meine Empfehlung: Mit der Android-App Podkicker Pro Podcasts direkt aufs Smartphone laden und unterwegs hören.

Was Google Fiber mit Coca Cola zu tun hat

Hinweis: Dies ist ein Crossposting des Originalartikels, der sich im Blog der ARD.ZDF-Medienakademie befindet.

Interaktive Brillen, selbstfahrende Autos oder plattformübergreifender Videochat – der Suchmaschinen- und Werbekonzern Google macht derzeit mit zahlreichen Neuentwicklungen Schlagzeilen. Eine könnte das Unternehmen aus Mountainview in Kalifornien jedoch stärker verändern als die erstgenannten Beispiele: Google Fiber … mehr →