Internet

Es gibt ja Spam/Phishing-Mails, die sind so dämlich, dass man sie einfach unkommentiert weitergeben muss (eigentlich geschickte Methode). Hier die neueste mich erreichende „Nigeria-Connection-Variante“ (man beachte bitte die formvollendete Differenz zwischen Absenderadresse und Angabe in der Mail):

Betreff: MESSAGE!!!!
Von: Rev Lowe,Landra-Michelle [notic821@orangehome.co.uk]

An American, a missionary born on 11-27-69 in Texas.
1) people willed lots of fund to me before they died for my missionary work and charity..

2)My husband and only child died 9yrs ago,the shock made me develop this heart sickness. i got your profile of trust and love for mankind through a christian
that knows you.

3)I am dying of a serious illness and i willed One million USD to you in my last testament of WILL.

Please take this serious and Get back to me because you are not expected to pay any unecessary fees to get this Fund.But if you must pay any fees,i must assist you financially too.

If you do not accept this offer,then i will not be happy because it is only you i trust.Use part of the fund for charity and some for your personal welfare.i have some documents to give to you as soon as i hear from you today and i will direct you on the simple way to get the fund.(My identity card ).love you and my Lord loves you most.You are blessed by this email.respond to my private email: landramichellelowe@yahoo.com.hk

(God Bless you.
Rev Lowe,Landra-Michelle
Email: landramichellelowe@yahoo.com.hk

It seems in 2011 and the era of Facebook and Twitter we’ve completely lost any care for open standards. Maybe it’s not just RSS that is dying – it’s the entire premise of open standards that is dying, and I think that’s really sad, and really bad for not just developers, but users in general.

Technisch gesehen ist die Wiege des Web 2.0 eigentlich die leicht Verknüpfbarkeit von Inhalten verschiedener Anbieter. Anders funktioniert ja ein Mashup überhaupt nicht (auch wenn ein Mashup vielleicht nicht gerade das Non-Plus-Ultra kreativer Leistung ist). Gerade Twitter ist mit (verhältnismäßig) offenen Standards groß geworden.

Ja, klar, ’ne API ist kein offener Standard im eigenen Sinne (eher im Gegenteil), und RSS nicht zu unterstützen bedeutet auch nicht zwangsläufig, sich von offenen Standards abzuwenden. Allerdings beschränkt sich das Abschotten bei Twitter ja nicht nur auf RSS-Feeds, sondern grundsätzlich wollen sie die Nutzer wieder auf die eigentliche Twitter-Homepage zwingen (oder warum sonst will Twitter wohl Tweetdeck aufkaufen???). Denn nur auf der eigenen Seite kann man mit Werbung Geld verdienen…

Bleibt natürlich die Frage, wo uns das alles noch hinführt. Im Augenblick habe ich den Eindruck, das Internet hat seine beste Zeit gerade hinter sich. Wir gehen mit großen Schritten zurück in die von abgeschottenten proprietären Systemen geprägten 80er. Klar, damals war auch nicht alles schlecht, und der vergleichsweise offene Standard „IBM-compatible PC“ war von der technischen Zuverlässigkeit eigentlich auch nicht gerade das Gebe vom Ei. Dafür konnte man damit fast alles machen (nur halt nicht so einfach und problemlos wie auf den auf spezifische Anwendungen getrimmten Systemen). Und deshalb hat er sich weitgehend durchgesetzt.

In den 90ern und auch noch den frühen „Nuller-Jahren“ ging die Entwicklung immer weiter in Richtung möglichst hoher Kompatibilität. Unabhängig von Hardware und Betriebssystem sollten Anwendungen funktionieren können. Jedes System sollte mit jedem anderen System halbwegs kommunizieren können. Anders funktioniert die Idee des Internets ja gar nicht.

Daß sich nun ausgerechnet diese Flash-Seuche als dasjenige rausstellte, was dann bei allen irgendwie lief und auch für die Anbieter halbwegs praktikabel war, konnte man anfangs ja noch verschmerzen. Aber mittlerweile erscheint es als der erste Schritt in die falsche Richtung. HTML5 kommt also schätzungsweise 15 Jahre zu spät.

Seit einigen Jahren arbeitet Steve Jobs daran, ein geschlossenes Apple-Internet aufzubauen. Facebook verfolgt das eindeutige Ziel, der eigentliche und möglichst einzige Zugang zum Internet zu werden — für viele Nutzer ist es das schon, und darüber verdient die Firma ihr Geld. Google erscheint dagegen geradezu als Waisenknabe, sind die verschiedenen Dienste auch unabhängig und mit nicht aufeinander abgestimmten Accounts zu nutzen (wobei die Bequemlichkeit ja doch sehr verleitet), vor allem aber kann man das Internet mit entsprechendem Proxy sowie Cookie- und Script-Blocker auch mithilfe von Google benutzen, ohne bis in die Details seines Nutzungsverhaltens ausgespäht zu werden (gut, dafür kann das wiederum der Proxy machen…). Die „Appisierung“ des mobilen Internets erinnert erschreckend an längst vergangen geglaubte Zeiten: Für jedes Smartphone-OS muß die App komplett neu programmiert werden (hier hatte ich immer noch die Hoffnung, das sei nur eine vorübergehende Erscheinung). Nun also macht auch Twitter dicht. (Wobei ich ja glaube, die sind schon zu spät dran. Facebook ist besser aufgestellt, hat das potentere Grundkonzept und ist auch schon weit vorangeschritten; wenn es in fünf Jahren noch Facebook gibt, hat es Twitter entweder aufgekauft oder plattgemacht.)

Allmälich kann ich nur noch hoffen, daß Diaspora was taugt. Aber da gibt’s ja eigentlich auch nicht mehr als vollmundige Absichtserklärungen. Irgendwie werde ich das Gefühl nicht los, daß das Internet gerade ganz mächtig den Bach runter geht. Und wenn ich in den letzten 10 Jahren das Netz nicht allzu egoistisch rein nach eigenen Interessen genutzt hätte, hätte es mir eigentlich schon längst auffallen müssen: Kommunikativ war jeder weitere Schritt von schlechterer Qualität als der vorangehende. Was man damals noch für Geburtswehen verstehen konnte, die mit besseren technischen Möglichkeiten gelöst zu werden versprachen, zeigt sich mir heute (nacht) als erster Schritt auf der Vermassung der Internetkommunikation. Immer schneller, immer kürzer, immer nichtssagender — immer egozentrischer.

Nunja, vielleicht liegt’s auch nur an der späten Uhrzeit, daß ich gerade meinen eigenen deprimierten Egotrip ins Netz gieße. Drum geh‘ ich jetzt besser ins Bett, und morgen sieht mein Internet bestimmt schon wieder viel hybscher aus. Trotzdem, ich werde das Gefühl nicht los, daß die Zukunft auch nicht mehr ist, was sie mal war…

Na super, wirklich eine innovative Idee, jeden, der nicht meiner Meinung ist, zum Troll zu erklären. Wer ist denn dann der wirkliche Troll? So weit waren gewisse Diskutanten in de.soc.weltanschauung.christentum schon vor 12 Jahren… Schade, denn das Konzept an sich hat was, man müßte es bloß weltanschauungsneutral umsetzen. Oh, ja, hm, ok, ich seh’s ein, mission impossible.

Kinners, dat muß man sich auf der Zunge zergehen lassen:

N[orbert] K[ebekus]: Memorandum und Petition haben ja nicht nur eigene Websites. Diskussionen über die beiden Texte spielen sich in sozialen Netzwerken und in Blogs ab. Wie wichtig ist das “Social Web” für Ihre Anliegen und darüber hinaus für die Dialoginitiative?

Franca Spies, Peter Hohler [Memorandum]: Die Funktion des Internets erleben wir als ambivalent. Polemische Beiträge zeigen uns, dass sich das Internet für tiefere Diskussionen, die ein emotionales Thema behandeln, nicht eignet. Hier werden Diskussionen nicht auf angemessenem Niveau und in der gebotenen Sachlichkeit geführt. Grund dafür scheint zu sein, dass Anonymisierung und ein fehlendes Gegenüber, das direkt wahrnehmbare Reaktionen auch auf emotionaler Ebene zeigt, die Hemmschwelle für Polemik und Beleidigung senken. Als Medium, über das Information verteilt und ein Bildungsauftrag erfüllt werden kann, halten wir das Internet hingegen für sehr geeignet.

Peter Winnemöller (Petition): Im „Social-Web“ sehe ich ein große Chance, einen Meinungsbildungsprozess auch unabhängig von etablierten Medien zu betreiben. In den katholischen Weblogs wird z.B. regelmäßig sowohl über die Petition als auch über das Memorandum berichtet. Natürlich werden hier Meinungen viel dezidierter vertreten, als in den Medien der großen Verlagshäuser, doch das darf und soll auch so sein.

Die Vernetzung untereinander bewirkt auch, dass es Berührungspunkte mit Vertretern anderer Meinungen gibt. Dabei zeigt sich oft, dass es nicht nur Schwarz und Weiß gibt. Es gibt punktuelle Zustimmung und punktuelle Ablehnung, dies kann uns vor Lagerbildung bewahren, die wie ein Damoklesschwert über dem angestrebten Dialog schwebt. Auch wenn ich selber im Augenblick kaum dazu komme, mit dem einen oder anderen in eine Diskussion zu treten, so nehme ich genau das bei vielen, mit denen ich vernetzt bin, deutlich wahr. Beeindruckend empfinde ich die völlig undiplomatische Ehrlichkeit, mit der die Positionen vertreten werden.

[…]

N.K.: Bei Facebook vernetzen sich jeweils die Memorandum-Unterstützer und die Petition-Befürworter. Die beiden “Lager” bleiben aber weitgehend unter sich. Es wird eher nicht mit den anderen geredet, sondern übereinander. Welche Orte des Dialoges sehen Sie im Internet? Oder: welche Orte müssten noch geschaffen werden?

Franca Spies, Peter Hohler: Das Internet dient unserer Ansicht nach in erster Linie der Informationsverbreitung und ist ein ungeeignetes Medium für Diskussionen. Solange Emotionen nur sehr eingeschränkt und nicht in Echtzeit übermittelt werden, kann im Internet kein Ersatz für echte zwischenmenschliche Diskussion geschaffen werden.

Peter Winnemöller: Ich sehe eigentlich nicht, dass die „Lager“ so streng getrennt sind. Jedenfalls habe ich niemanden aus meiner Facebook-Freundesliste gekegelt, weil er das Memorandum unterstützt. Sicher kommunizieren die einzelnen Gruppen nicht miteinander. Aber das tun ja schließlich die Fangruppen von Borussia Dortmund und FC Schalke auch nicht. Orte des Dialoges im Internet sind dann eher die eigenen Profilseiten, Internetforen und Kommentarbereiche von Weblogs.

Social Media als „Informationsverbreitungsinstrument“? Wofür steht denn wohl das „social“ in „social media“? Für Massenkommunikation? Argbl, kein Wunder, daß aneinandervorbei dialogisiert wird.

In der heutigen FAZ gibt es in der Beilage Bilder und Zeiten einen interessanten Artikel von Mercedes Bunz (ja, sie heißt wohl wirklich so, auch wenn mir Google das nicht glauben wollte…) über die Folgen der „digitalen Revolution“ für das menschliche Denken (Artikel online nur für Geld). Diese Frage ist ja schon vor einem Jahr etwas ausführlicher diskutiert worden, wenngleich auf sehr unterschiedlichem Niveau.

Bei Frau Bunz habe ich allerdings einen Gedanken gefunden, den ich bisher so nicht gelesen hatte, nämlich zur Funktion des Experten. Den mache das Internet nämlich keineswegs überflüssig, aber es verändere seine Funktion. Bisher zeichnete sich ein Experte dadurch aus, daß er auf einem bestimmten Gebiet mehr wußte als andere. Mit dem Internet und vor allem seiner leichten Durchsuchbarkeit mittels Google und Konsorten ist das bloße Wissen aber kein Vorteil mehr. Das kann nämlich jeder ohne große Anstrengung erlangen, wenn er nur weiß, was er sucht. Es reicht aber nicht, die bloßen Fakten zu finden, man muß sie auch einordnen und bewerten können. Genau das sei in Zukunft die Legitimation des Experten, schreibt Frau Bunz, nämlich im Informationsüberfluß den strukturellen Überblick zu behalten. Er kann sich also nicht mehr durch bloßes Faktenwissen (bösartiger gesagt: durch Herrschaftswissen) legitimieren, sondern ist der ständigen Überprüfung ausgesetzt, was sowohl die behaupteten Fakten als auch die daraus abgeleitete Plausibilität seiner Strukturierung derselben angeht.

Dieser Gedanke birgt für mich eine unmittelbare Plausibilität (oder anders gesagt: mir fallen sofort genug Fakten ein, die ich bereits weiß, die in diese Strukturierung von Wirklichkeit nahtlos einzupassen sind und zugleich durch die Struktur in einer Weise widerspruchsfrei erklärt werden können, daß aus dieser Struktur ein tatsächlicher Wissenszugewinn hervorgeht, der mehr ist als das Zusammenführen an sich bereits bekannter Daten [was in dem Artikel als der nächste Schritt der Digitalisierung dargestellt wird: Suchmaschinen, die intelligent auf Anfragen reagieren und nicht einfach auf schon vorhandene Seiten verweisen, sondern aus als verläßlich bekannten Daten durch Kombination neues „Wissen“ {ich habe einen anderen Wissensbegriff als Frau Bunz} generieren, manchem vielleicht schon unter der Chiffre „Semantisches Web“ oder im Kontext von Überlegungen zum „Web 3.0“ über den Weg gelaufen] — aber ich schweife ab). Unmittelbarste Bestätigung dieser Veränderung ist das Erlebnis, wie ein Redner noch während seines Vortrags per Twitterwall „auseinandergenommen“ wurde und de facto der Lüge (natürlich hatte er die Wahrheit nur ein wenig „gedehnt“ und andere Fakten verschwiegen) überführt wurde.

Bei genauerer Betrachtung birgt diese soziologische Struktur(ierung) aber auch einen Erklärungsansatz für das, was sich in unserer Kirche in den letzten zehn, fünfzehn Jahren entwickelt hat, im allgemeinen und die Blogoezese im besonderen. Als Experten werden im Artikel Journalisten, Ärzte, Lehrer und Ingenieure aufgezählt, wenn man hier die Ärzte durch Priester und die Ingenieure durch Theolog(ieprofessor)en ersetzt, hat man gleich die Lieblingsthemen der blogoezesanen und postmodernen (mitunter meinetwegen auch „traditionalistisch“ angehauchten) „Kirchenkritiker“ erfaßt: Journalisten, die Fakten in einer Weise darstellen, die es ihnen im Gegensatz zu den Fakten selbst ermöglicht, etwas gegen den Papst und die nicht-angepaßten Bestandteile der Kirche zu schreiben; Priester, die ihren eigenen liturgischen Vogel als den Heiligen Geist der Liturgiereform ausgeben; ein Religionsunterricht, in dem man alles mögliche über die Weltreligionen, aber nicht viel Substantielles über Jesus Christus (ge)lernt (hat); und Theologieprofessoren, die vor lauter Detailwissen dermaßen in ihren persönlichen Elfenbeinturm abgedriftet sind, daß natürlich alle anderen daran Schuld sind, daß ihre Vorstellungen nicht wirklichkeitskompatibel sind.

Oder anders gesagt: Das Internet könnte tatsächlich die Quelle für das Erstarken, ich sage mal vorsichtig, des papsttreuen Katholizismus in unseren Landen sein. Weil es eben prinzipiell jedem ohne großen Aufwand möglich ist, die kirchenpolitisch relevanten Grundlagentexte im Wortlaut einzusehen und somit in der Meinungsbildung nicht mehr abhängig von den Experten zu sein, die mitunter die Darstellung der Fakten an ihre vorgefertigte Struktur anpassen. Die Experten haben auch in der Kirche ihre „Gatekeeperfunktion“ verloren, das bloße Wissen ist jedem zugänglich, und entscheidend ist nicht mehr, möglichst detailliert Fakten zu kennen und den Gesprächspartner durch solches Herrschaftswissen zu unterwerfen (ok, das ist jetzt zu böse formuliert, an sich will ich niemandem bewußte böse Absicht unterstellen, aber die braucht es gar nicht, bloßer Irrtum reicht vollkommen zur Erklärung aus), sondern eine dem Gegenüber plausible Deutung und Strukturierung dieses Einzelwissens anzubieten. Das aggressive Reagieren auf die „Verweigerung der Gefolgschaft“, wie sie sich insbesondere in der Blogoezese manifestiert, in Form des persönliche Angriff, der Schubladisierung und des als ewig gestrig Verächtlichmachens läßt sich folglich mit dem Statusverlust erklären, der einen Experten trifft, der nur Fakten, aber keine Strukturierung anzubieten hat, und dabei gar nicht versteht bzw. verstehen kann, warum er plötzlich mit Widerspruch konfrontiert wird, wo er doch der Experte ist, der die Fakten kennt.

Leider scheint in der Theologie wie auch in den kirchlichen Strukturen noch voll das alte Expertentum zu herrschen. Ich hatte einen Professor, der aus dem Stand bis in die Details hinein das Denken eines bestimmten Theologen in einer bestimmten Monographie reproduzieren konnte, aber nicht in der Lage war, seine Vorlesungen so zu strukturieren, daß sich bei seinen Studenten aus diesen vielen Einzelaspekten eine Gesamtkonzeption hätte entwickeln können. Genauso, wenn auch nicht ganz so extrem, ging’s mir übrigens mit dem „Handbuch der Dogmatik“. Da stand für micht ganz viel Blabla drin, mitunter durchaus interessante Details, aber mir fehlte die Struktur, in die ich diese Details hätte einpassen können. Ganz anders in Otts angeblich nachkonziliar einfach nicht mehr zu gebrauchendem „Grundriß der Dogmatik“. Hier gab es knallharte Fakten, mitunter sehr sehr knapp und gedrängt, dafür war das ganze Buch nichts anderes als Druckerschwärze gewordene Struktur; die wichtigsten Seiten dieses Buches sind die mit dem Inhaltsverzeichnis. Noch extremer übrigens in der Summa Theologiae von Thomas von Aquin, den ich genau dafür liebe, in einem einzigen Artikel soviel geballte Details abzuarbeiten, daß man über jeden Satz eine eigene Doktorarbeit schreiben könnte, aber zugleich immer die Gesamtkonzeption im Blick zu haben.

Daß mir zur Schreibweise des Thomas in seinen Summen gerade der Begriff des „Hypertextes“ — egal, wo man anfängt zu lesen, man kommt immer irgendwie zu allem, muß das Werk also nicht in der Linerarität lesen, in der es geschrieben wurde (obwohl es manchmal hülfe 😉 — einfiel, macht es für mich nur noch plausibler, die Grundlage des Wandels im Internet zu sehen.

Nachtrag: Noch mehr Hyptertext ist der Weltkatechismus — und gerade das ist, warum ich ihn dem deutschen Katechismus vorziehe. Beide habe ich noch nie von Deckel zu Deckel gelesen, im Weltkatechismus kann ich aber auf eine konkrete Frage schnell eine knappe Antwort finden, im deutschen würde ich mich dumm und dämlich suchen. Übrigens ist die Frage-Antwort-Form der früheren Katechismen auch eindeutig das Vorbild für die FAQs. 🙂