„Code as Code can“ – Neues aus dem Maschinenraum

Ahoi aus Hamburg,

schon ein Weilchen ist es (aus ganz unterschiedlichen Gründen) her, dass hier ein neuer Beitrag zu lesen war. Doch nein, wir waren nicht untätig, nur eben sehr beschäftigt. Und zwar unter anderem damit, einen Text für „Communicatio Socialis“ zu schreiben – die Fachzeitschrift ist schon ein paar Jährchen alt widmet sich seit Neuestem vorrangig medienethischen Fragen. Unser Beitrag, den ich gemeinsam mit Stephan Dreyer und Katharina Johnsen vom HBI geschrieben habe, trägt den Titel „‚Code as Code can‘ Warum die Online-Gesellschaft einer digitalen Staatsbürgerkunde bedarf“. Es geht uns im Groben darum, den Begriff „Code Literacy“ in einen etwas größer gelagerten Kontext zu setzen und auch die Anbieterseite zu beleuchten, d. h. es ist kein rein wissenschaftlicher Text, mehr eine Art „Wünsch-dir-was“/Kommentar. Momentan können wir den Text leider hier nicht zum Download anbieten, aber wir schicken ihn auf Anfrage natürlich gerne per Mail weiter. Als kleiner Teaser hier das Abstract:

Das Handeln und Verhalten von Menschen wird heute neben Märkten, Gesetzen und sozialen Normen auch von Software-Code gesteuert. Im Zeichen der Digitalisierung sind mehr und mehr Bestandteile unseres Alltagslebens in netz- und code-basierte Software ausgelagert. Code ist allgegenwärtig und wirkmächtig, zugleich aber auch nicht unmittelbar sichtbar: Er ist undurchschaubar, unantastbar und unterliegt Produktionslogiken, die sich der Kenntnis- und Einflussnahme der Nutzer und möglichen Rechenschaftspflichten entzieht. Damit unterscheidet sich Code als Steuerungsfaktor menschlichen Verhaltens grundsätzlich von rechtlichen und sozialen Normen. Vor diesem Hintergrund diskutiert der Beitrag aus medienethischer Perspektive zum einen die Verantwortung der vergleichsweise autark handelnden Anbieter codebasierter Dienste mit Blick auf Fragen der Transparenz, Legitimation und Kontrolle derartiger Angebote. Zum anderen wird die Notwendigkeit einer digitalen Staatsbürgerkunde herausgestellt, die den Anwendern nicht nur Kenntnisse um die Funktionslogiken von Code im Sinne einer Code Literacy vermittelt, sondern (potenziell) auch zu einer informierten, kritischen sowie aktiv-gestaltenden Teilhabe an der digitalen Gesellschaft befähigt.

Zu genau jenem Beitrag habe ich dann direkt am Jahresanfang, am 9. Januar, in Köln einen Vortrag auf der medienethischen Tagung „Täuschung, Inszenierung, Fälschung“ gehalten, der für einige Diskussionen sorgte. Mein Fazit dazu fiel auf Twitter nicht allzu rosig aus: Für einige ist das Netz nicht nur Neuland, sondern Niemandsland. Hier also die Folien zum Vortrag:

Und noch eine kleine Sache: Mitte Oktober sprach ich mit Kai Biermann von ZEIT Online zum Thema Code Literacy. Anlass war die Initiative Code.org und wie sich diese vor dem Hintergrund neuer Anforderungen und Kompetenzen des „Homo digitalis“ (ja, so lautet unser etwas sperriger Blog-Untertitel) einordnen lässt. Den Artikel könnt ihr hier nachlesen.

So much for now. Keep on coding in a free world.

Nele

P.S. Wir suchen natürlich nach wie vor Menschen, die ihre Gedanken zum Thema „Code Literacy“, „digitaler Staatsbürgerkunde“ (oder wie auch immer man es nennen möchte) hier in kurzen Beiträgen teilen möchten.

Podcast-Episode zu „Code Literacy“ erschienen

Ahoi aus Hamburg!

Es gibt – neben einem wunderbaren neuen Gastbeitrag – eine kleine Neuigkeit aus dem Bereich Output, auf die wir hier gerne hinweisen würden. Vor ein paar Wochen hat Nele mit Daniel Meßner vom Podcast „Stimmen der Kulturwissenschaften“ ein rund 40-minütiges Gespräch zum Thema „Code Literacy“ geführt. Hier mal ein ganz kurzer Appetizer:

Code, Software oder Algorithmen haben einen wesentlichen Einfluss auf unser Leben. Aber inwiefern spiegelt sich die Bedeutung von Code in den Themen der Sozial- und Geisteswissenschaften wider?

Man kann sich den Podcast direkt über den Browser anhören. Noch größer ist das Hörvergnügen natürlich, wenn man sich die Episode direkt auf sein mobiles Endgerät lädt – wie das alles funktioniert, hat Daniel auf seinem Blog einfach und verständlich beschrieben. In jedem Fall lohnt es sich den gesamten Podcast zu abonnieren, da Daniel immer wieder interessante Themen aufgreift, wie z. B. das spannende Gespräch mit Sebastian Gießmann über Netze und Netzwerke zeigt.

Wir wünschen viel Spaß beim Hören!

[nh]

Interdisziplinäre Einblicke in Coding-Praxis

Ein Gastbeitrag von Andreas Bischof*

Code Literacy – die Fähigkeit Code zu verstehen – ist nicht nur eine Frage des Programmieren-Könnens. Sie bedeutet auch, die Umstände der Code-Produktion und -Produzenten zu verstehen. Schließlich legen die Bedingungen, unter denen Code entsteht, den Grundriss für die durch die Software ermöglichten Freiräume und Begrenzungen. Da die Arbeit an Human-Computer-Interfaces zu den lebendigsten Bereichen der Informationstechnik gehört und sich aus so unterschiedlichen Communities wie User Experience-Designern oder Robotikforschern speist, ist es naiv anzunehmen, es gäbe eine Kultur des Codens. Als Doktoranden an einem interdisziplinären Kolleg erleben wir diese Unterschiede im Umgang mit Software und Nutzungsszenarien in unserer täglichen Arbeit. Gleichzeitig zeigt uns der Blick in die mit Code und Mensch-Maschine-Schnittstellen befassten Fachgemeinschaften, dass eine Sensibilität für die Vielfalt des Codens und vor allem seine Folgen nicht selbstverständlich ist.

Deswegen haben wir im September 2013 auf der interdisziplinären Tagung „Mensch & Computer – Interaktive Vielfalt“ einen Workshop zu einem der drängendsten Themen interdisziplinärer Zusammenarbeit an interaktiver Technik ausgerichtet: Die Frage der Methodenwahl dient nicht nur der Validität und Reliabilität von Ergebnissen, sondern eröffnet auch einen spezifisch strukturierten und strukturierenden Zugang zu den Interaktionen von Mensch und Maschine. Diese Reflexivität durch eine interdisziplinäre Diskussion mit Teilnehmerinnen aus Wirtschaftsinformatik, Psychologie, Medieninformatik, UX-Consultants und „Human Factors“ zu befördern, war unser Ziel.

Ein (zu) ehrgeiziges Ziel für vier Stunden Workshop, denn es umfasst sowohl das konkrete Handwerkszeug quantitativ als auch qualitativ empirischer Methoden der Erhebung und Auswertung von Daten bis hin zu erkenntnistheoretischen Fragen zur Beobachtbarkeit und Interpretation von Mensch-Maschine-Interaktionen an sich – und das alles gemessen an der wiederkehrenden Frage: „Und wie soll ich das in meinem Projekt implementieren?“ Kein Wunder also, dass es nicht durchgängig leicht war, den Abstraktionsfahrstuhl auf dem richtigen Stockwerk zum Halten zu bringen. Diese Werkstattatmosphäre der Auseinandersetzung führte aber auch zu äußerst fruchtbaren Erfahrungen: z. B. die Session von Michael Heidt, der die Möglichkeit einer interdisziplinären Methodologie für und durch Code thematisierte. Dabei fokussiert er eine Leerstelle, die dem Befund der Code Literacy ähnelt: „Throughout our observations of relevant social research practices, we were confronted with a surprising lack of understanding and a surprising lack of methods addressing the coding process“ (Heidt 2013, in press).

Die Realisierbarkeit einer gemeinsam geteilten, formalisierbaren Code-Beschreibungssprache für Programmierende, nicht-programmierende Kolleginnen und Userinnen wurde in der Diskussion weitgehend problematisiert. Dafür sei Code im Vergleich zu anderen Artefakten zu komplex und die Coding-Praxis durch zu viele ineinander verschachtelte Kommunikationsprozesse gekennzeichnet. Ausgehend von der Frage nach Erfahrungen im interdisziplinären oder dem einleitenden Argument folgend „interkulturellen“ Arbeiten an Quellcode entwickelte sich dafür eine spannende Diskussion über Code als Praxis. Das sozialwissenschaftlich häufig thematisierte Blackboxing, also „Verunsichtbaren“ konkreter Verfahrensweisen von Soft- und Hardware, wurde von den Informatikerinnen im Workshop zum Beispiel als originäre Eigenschaft ihres Arbeitsalltags berichtet. Auch direkte Mitarbeiterinnen und Auftraggeberinnen behandeln selten konkreten Code, sondern verlangen (zumeist quantitativ skalierbaren) Output. Darüber hinaus wurden überaschenderweise ästhetische Dimensionen des Programmierens herausgearbeitet: „Coding ist für mich auch immer eine Stilfrage“, sagte ein Teilnehmer. Bourdieu hätte seine wahre Freude an diesen feinen Unterschieden der Coding-Praxis!

* Andreas Bischof, M.A., ist Kulturwissenschaftler und Doktorand des DFG-Graduiertienkollegs „CrossWorlds“ an der TU Chemnitz. Den hier beschriebenen Workshop konzipierte er gemeinsam mit Benny Liebold. Darüber hinaus befasst sich Bischof in seinem persönlichen Blog mit „(Social) Science in the Making“.

Intertubes

Dieser Gast-Beitrag ist ein bisschen anders als die bisherigen, denn er ist eine Übersetzung eines Blog-Postings von Peter Sunde, u.a. Mitbegründer von flattr. Der englische Original-Text erschien am 26. Mai 2013 auf Peter’s Blog. Nele hat ihn übersetzt, nachdem Peter ihr auf Twitter versicherte: “All my work is free to copy for all and for whatever reason!” – nun denn, los geht’s:

Ich habe zuvor schon mehrfach über die Kontrolle des Internets geschrieben. Fast immer, wenn wir uns damit beschäftigen, geht es um verschiedene technologische Ebenen (“layers of technology”). Entschuldigung dafür, aber das hier wird ein sehr sehr langer Beitrag.

Facebook, Google, Twitter, Amazon, Dropbox etc. sind alles (mehr oder weniger) webbasierte Dienste. Sie alle üben eine Art von sanfter oder weicher Kontrolle (“soft” control) über uns aus, indem sie unsere Daten aufbewahren und speichern, und uns so abhängig machen von ihren Zugangssystemen zu diesen Daten. Dazu kommt, dass fast all diese Firmen in den USA beheimatet sind.

Das Web selbst nutzt DNS (Anm. d. Übers.: DNS = Domain Name System), um sicher zu stellen, dass wir die richtigen IP-Adressen finden können, um mit diesen Diensten zu kommunizieren. Bei einem nicht funktionierenden DNS System könnte einfach jemand behaupten, Facebook etc. zu sein, und als dieser so genannte Mittelsmann (“man in the middle”) den Zugang zu allen Daten attackieren, die wir in Cloud-Diensten abgelegt haben. Das DNS, das wir alle nutzen, wird von einer US-Organisation kontrolliert, der ICANN, innerhalb ihres Root-Server-Systems. Man könnte es auch als eine Art universelles oder globales Telefonbuch betrachten, bei der eine einzige Organisation darüber entscheidet, welche Länder in diesem Telefonbuch angezeigt werden. Dabei verfügen sie sogar über die Mittel, jeden einzelnen Eintrag in der Datenbank mit welchen Daten auch immer sie möchten zu überschreiben.

Beide Aspekte verweisen auf ganz reale Probleme, vor denen wir heute stehen. Gerichte in verschiedenen Teilen der USA haben Domains suspendiert, die in keinster Weise mit den USA in Verbindung stehen, und dies schlicht damit begründet, dass die Organisation, die diese Daten kontrolliert, in den USA beheimatet ist.

Wie schon angesprochen, sind diese Probleme letztlich mehr oder weniger “soft”. Sie beruhen auf Software, die wir ausblenden können oder von der wir “migrieren” können. Wir haben das auch schon früher getan, mit Dingen wie Myspace, und wir werden das vermutlich auch mit Facebook wieder tun. Aber: DNS ist wahrscheinlich ein bisschen schlimmer, weil wir bislang keine Ersatz-Technologie dafür haben, auch wenn viele Leute (mich eingeschlossen) versucht haben, sie zu ersetzen. Es ist einfach ein zu großes Problem (“t’s just too much of a problem”).

Aber selbst wenn DNS scheitert (eher politisch als auf andererem Wege), können wir Netzknoten (“node”) immer noch erreichen, indem wir ihre IP-Adressen verwenden. Es wäre zwar ein ziemlich großes Problem, aber vielleicht könnten wir das bisherige DNS mit einem konkurrierenden ersetzen. Es würde zwar in etwa sein, als ob jedermanns Telefonbuch gelöscht würde, und wir wieder unsere Telefonnummern benutzen müssten.

Aber eine Sache ist viel schlimmer, über die aber fast nie gesprochen wird: Wer besitzt eigentlich die physikalische Infrastruktur, die wir nutzen und brauchen? Jene Ebene, auf der all unsere Kommunikation basiert.

Die meisten Menschen haben eine ungefähre Vorstellung davon, dass sie irgendeine Art von Internetanbieter haben, manche wissen vielleicht sogar, wie der Name ihres Anbieters lautet. Aber nur wenige Menschen verstehen die komplexen Verbindungen zwischen Anbietern. Der Internet Traffic, den wir generieren, geht üblicher Weise zu einem Netzwerk außerhalb des Netzwerkes unseres eigenen Providers. Das heißt, unser Provider muss eine passende Route finden, über den dieser traffic “reisen” kann.

Internet-Anbieter müssen sich austauschen, indem sie Computer nutzen, die für solchen traffic-Austausch spezialisiert sind. Diese Computer werden Router genannt. Die meisten Anbieter auf der Welt haben wiederum andere Anbieter, die es ihnen ermöglichen, Internet traffic zu senden oder zu empfangen. Diese verbinden ihre Router miteinander, entweder in einer privaten Einrichtung (mit Glasfaser- oder Kupferkabeln zwischen den Routern) oder an einem Internet Exchange Point (kurz: IXP), an dem verschiedene Anbieter entschieden haben, traffic mit jedweden Anbieter auszutauschen, der an diesem Punkt verfügbar ist. Es gibt freie IXP-Dienste und es gibt kommerzielle. Und es gibt zwei Arten von Austausch: einer wird “peering” genannt, hier erlauben die Provider einen (normalerweise) freien Fluss zwischen ihren eigenen Netzwerken. Die andere Form des Austauschs wird “transit” genannt – hierbei erlaubt es ein Anbieter den anderen, sein Netzwerk und alle anderen Netzwerke, mit denen er verbunden ist, zu erreichen. Üblicherweise heißt das: das gesamte Internet.

Größere Player gestatten es üblicherweise niemanden, ihre Netzwerke umsonst zu erreichen, nicht einmal an den beschriebenen Austauschpunkten. Sie erlauben es kleineren Anbietern lediglich, für den Zugang zum Internet zu bezahlen, zu Preisen, die schwanken – und zwar sehr stark.

Es gibt weltweit nur sehr wenige so genannte “tier 1” Provider. Sie besitzen ein derart großes Netzwerk, dass sie niemanden dafür bezahlen müssen, um jedes Netzwerk weltweit zu erreichen. Stattdessen können sie saftige Kosten von kleineren Anbietern erheben, damit diese über ihr Netzwerk das Internet erreichen können.

Heute werden 13 Firmen als Tier 1 Provider eingestuft, acht davon sind in den USA, vier in Europa und eine in Indien beheimatet. Sie haben massive Kontrolle über das Internet und die Marktpreise für Bandbreitenkosten. Die meisten kleineren Anbieter, darunter sogar große multi-nationale Internetanbieter, sind ziemlich abhängig von diesen übergeordneten Tier 1-Providern.

Aber selbst diese Anbieter haben immer noch physische Provider! Obwohl viele dieser Firmen auch einen großen Teil ihrer eigenen Infrastruktur besitzen, müssen sie ihre physikalische Konnektivität zu verschiedenen Orten von anderen Firmen pachten. Mancherorts mieten sie ungenutzte Glasfaserkabel zwischen Städten oder größeren Regionen, an anderen Orten müssen sie die physischen Glasfaserkabel selbst verlegen. Und es ist wiederum nur eine Handvoll von Firmen, welche die meisten internationalen Glasfaserkabel besitzt.

Wir müssen endlich anfangen, uns ernsthaft mit diesem Problem auf internationaler Ebene beschäftigen. Wir alle sehen doch längst, dass die Kontrolle aus einem einzigen Land über die meisten Internetdienste im besten Falle unangenehm ist. Viele von uns sind mit Gesetzen aus den USA (wie etwa dem DMCA) vertraut, weil sie unsere Netzwerke beeinflussen. Und trotzdem tun wir noch längst nicht alles, was wir tun sollten, um sicherzustellen, dass das Internet international bleibt, mit nationaler Kontrolle über nationale Angelegenheiten. Wenn ein US-Richter entscheidet, dass eine US-Firma den gesamten traffic in z. B. Afghanistan oder Iran überwachen soll, haben sie die Möglichkeiten dazu. Wahrscheinlich machen sie das sogar bereits, und wir haben keine Möglichkeit das zu kontrollieren.

Um sicherzustellen, dass wir kein Internet mit nur einem einzigen Fehlerpunkt (“point of failure”) entstehen lassen, wird es Zeit darüber nachzudenken, wie wir ein redundantes Netzwerk aufbauen können. Die EU sollte nationale Glasfaser-Verbände voranbringen, zwischen großen Städten in jedem Land, die auch tatsächlich in Besitz des Landes sind, in dem sie sich befinden. Die Kosten für die Nutzung dieser Glasfasern könnte auf Selbstkosten-Niveau gehalten werden. Immer wenn Straßen oder Schienen gebaut, versetzt oder renoviert werden, sollten gleichzeitig auch Glasfaserrohre verlegt werden, wo auch immer die Strecke hinführt.

Auf diese Weise könnten wir eine wirklich öffentliche Infrastruktur sicherstellen, die nicht abhängig von den USA ist. Wir könnten sicherstellen, dass die derzeitigen Glasfaser-Besitzer (und wiederum Internetanbieter) ihre Kosten an eine solch öffentliche Infrastruktur anpassen müssten. Wir könnten das Internet für jeden zu einem fairen Preis zugänglich machen. Aber vor allem könnten wir sicherstellen, die Kontrolle über die Infrastruktur zu behalten, auf der unsere derzeitige und zukünftige Kommunikation aufbaut.

Das Internet ist nicht mehr einfach nur ein Spielplatz, es geht dabei nicht mehr nur um Unterhaltung. Es ist ganz real und wir sind vollkommen abhängig davon. Und: wir sind nicht alle Bürger der USA.

Und hier noch ein Beitrag, der die Funktionsweise des Internet-Routing erläutert (auf Heise.de).

Teilhabe an der nächsten Gesellschaft

Ein Gastbeitrag von Mario Donick*

Beim ersten Lesen des Begriffs „Code Literacy“ war mir nicht ganz klar, was genau damit gemeint ist. Geht es um das Verstehen und Schreiben von Computerprogrammen? Oder geht es um Codes im Sinne von Verschlüsselungsalgorithmen, damit also auch um die Entwicklung eines Bewusstseinss für aktive und passive Datensicherheit und Sicherheit im Umgang mit Internet-Diensten?

Diese und andere spontane Assoziationen schossen mir durch den Kopf. Schnell wurde dann deutlich, dass es sich bei Code Literacy offensichtlich um eine zeitgemäße Neuformulierung dessen handelt, was Wolf D. Grossman in „Entwicklungsstrategien für die Informationsgesellschaft“ schon 2001 als „Neue Alphabetisierung für alle“ bezeichnet hat und die damals vor allem „Kenntnisse in den neuen Medien“ verlangte.

Nun sind die sogenannten neuen Medien mittlerweile auch schon ziemlich alt. Der früher gern thematisierte Wechsel von der Gutenberg-Galaxis zur McLuhan-Galaxis ist lange her. Woran liegt es also, dass die Bedeutung der hier mit Code Literacy bezeichneten Kompetenzen immer noch nicht in der Mitte der Gesellschaft angekommen ist?

Warum muss ihre Relevanz immer noch vor allem von Informatik-Seite betont werden – bezeichnenderweise ist, anders als bei Fächern wie Deutsch und Mathe, nicht die Kultusministerkonferenz Herausgeber der Bildungsstandards für das Schulfach Informatik, sondern die Gesellschaft für Informatik – , während etwa der Präsident des Deutschen Lehrerverbandes im Jahr 2013 der Ansicht ist, „Schüler müssen ja auch nicht wissen, wie eine Schreibmaschine [!!] funktioniert. Hauptsache, sie können sie bedienen“ (s. Spiegel Online).

Der Soziologe Niklas Luhmann schrieb in „Die Gesellschaft der Gesellschaft“ (1997) von der „unsichtbaren Maschine im Computer“. Einfach gesagt, beschreibt er damit das Problem, dass die Algorithmen, die ein Computer ausführt, dem Anwender nicht direkt zugänglich sind, sondern dass nur sichtbare Ergebnisse der Verarbeitung einen Hinweis darauf geben, dass ‚etwas’ geschieht. Der Computer als solcher – das, was die Leistung des Computers ausmacht – scheint dem Zugriff entzogen.

Dass dies ein Problem für die Gesellschaft ist, die Luhmann systemtheoretisch modellierte und die vom kommunikativen Dreiklang aus Mitteilung, Information und Verstehen lebt, hat Luhmann erkannt, konnte aber selbst nicht mehr daran arbeiten (er starb 1998). Es war z.B. an Luhmann-Schüler Dirk Baecker, auf die „Krisen der Computergesellschaft“ hinzuweisen und – vom Computer als neuem Leitmedium ausgehend – „Studien zur nächsten Gesellschaft“ auszuarbeiten. (Interessant in dem Zusammenhang auch ein Beitrag von Jörg Wittkewitz auf heise.de)

Provokant könnte man fragen, ob Luhmann denn überhaupt in der Lage gewesen wäre, die Computergesellschaft zu beschreiben. Er selbst hat schließlich Zeit seines Forscherlebens mit analogen Zettelkästen gearbeitet. War der Computer nicht nur deshalb eine unsichtbare Maschine für ihn, weil er selbst vielleicht nicht über ausreichend Code Literacy verfügte?

Meine Informatik-Kollegen, mit denen ich als Geisteswissenschaftler seit 2008 zusammenarbeite, würden vermutlich sagen, dass natürlich auch die angeblich unsichtbare Maschine sichtbar gemacht, d.h. erklärt und verstanden werden kann. Und als jemand, der sich das Programmieren Anfang der 1990er Jahre im frühen Jugendalter auf einem „Kleincomputer KC85/3“ (das DDR-Pendant zum ‚West’-Commodore C64) beigebracht hat, könnte ich diese pragmatische Sicht unterschreiben.

Als Kommunikationswissenschaftler aber sehe ich im Rahmen meiner Arbeit, dass Code Literacy bei den meisten Personen nur schwach ausgeprägt zu sein scheint – die Kompetenzen, die nötig sind, Computer, Smartphone, Tablet, Mikrowelle, Videospiel, Fahrkartenautomat, Navi, Fernseher, Radio, Uhr, Waschmaschine, Fahrstuhl, MP3-Player, Staubsaugerroboter, Geldautomat usw. usw. nicht nur zu benutzen, sondern Struktur, Funktion und Folgen dieser technischen Informations- und Kommunikationssysteme nachzuvollziehen und zu bewerten, scheinen nicht nur nicht vorhanden – sie interessieren viele Menschen auch nicht. Wichtig ist: Es soll funktionieren.

Für Luhmann operiert Technik mit der Unterscheidung von „heil“ und „kaputt“. Von meinen Informatik-Kollegen gern mal als trivial bezeichnet, ist es genau diese Unterscheidung, die das alltägliche Herangehen an Technik beschreibt. Die Grunderwartung an Technik ist: Sie funktioniert. Die maximal mögliche Enttäuschung ist: Sie tut es nicht. Auch dies klingt trivial, aber wer Luhmann kennt, weiß, dass da ein ganzer Rattenschwanz an Konzepten dranhängt, die spätestens dann relevant werden, wenn mit der Enttäuschung umgegangen werden muss.

Enttäuschung ist per se nichts Negatives. Dirk Baecker zeigt in „Form und Formen der Kommunikation“ (2007), dass der stete Wechsel zwischen Erwartung und Enttäuschung genau das ist, was Erwartung ausmacht. Aber wir sind nicht nur Luhmann’sche Systeme. Enttäuschung führt zu ganz konkreten Befindlichkeiten: Allzuoft sind wir sind frustiert, wenn ‚es’ nicht funktioniert. Das Um-Hilfe-(An)Rufen beim Freund, das Verfluchen des Computers, das Schimpfen auf ‚die’ Programmierer oder das entnervte Hauen auf die Tastatur sind die Folge, wenn wir uns der Enttäuschung ausgeliefert sehen und keinen Weg finden, das enttäuschte Vertrauen zurückzugewinnen, also die Grunderwartung „Technik funktioniert“ wieder aufzubauen.

Um es wiederum mit Baeckers Formbegriffen auszudrücken: Es liegt ein Konflikt vor, und um ihn zu lösen, muss über eine Schnittstelle interveniert werden. Diese Schnittstelle ist in diesem besonderen Konflikt direkt greifbar als Human Computer Interface, mit mannigfaltigen Möglichkeiten ausgestattet, aber wir können sie nicht zielführend nutzen, weil wir außer der Grunderwartung „Technik funktioniert“ oft nicht in der Lage sind, strukturierte, über die Grunderwartung hinausgehende Erwartungen zu bilden.

Stattdessen probieren wir ‚irgendwie’ rum. Bestenfalls funktioniert ‚es’ dann tatsächlich wieder, ohne dass wir aber sagen können, wie wir das hinbekommen haben. Schlimmstenfalls ziehen wir den Stecker, geben wir auf, schieben die Schuld auf die Technik. Technikkritisch formuliert, hätte dann die „unsichtbare Maschine im Computer“ gesiegt. Wir hätten keinen echten Zugang zu ihr gefunden, die Technik bliebe uns verschlossen.

Aber die kritische Sicht impliziert auch eine zweite Seite: Die der Einladung. Scheinbar verschlossene Technik ist auch eine Herausforderung, sich Zugang zu verschaffen. „Zugang verschaffen“ – das klingt nach Einbruch, nach Raubkopie, nach Datenklau, und tatsächlich sind diejenigen, die etwa Kopierschutzverfahren knacken oder in fremde Computersysteme eindringen, oft v.a. an der Herausforderung interessiert.

Doch es geht gar nicht um Einbruch. Es geht um Teilhabe. So, wie Literacy als Kulturtechnik es uns erlaubt, die klassisch gewordene Gutenberg-Galaxis zu erkunden, indem wir Texte rezipieren, produzieren, interpretieren und dazu Stellung nehmen, so wird uns Code Literacy erlauben, an der „nächsten Gesellschaft“ und ihren Eigenheiten zu partizipieren.

Natürlich: Code Literacy geht gar nicht ohne Literacy, und da gibt es immer noch Defizite: In Deutschland konnten 2012 über 7 Mio. Menschen nicht Lesen und Schreiben. Vor diesem Hintergrund sind kritische Einwände, wie die des eingangs zitierten Lehrerverbandspräsidenten, durchaus ernst zu nehmen.

Doch scheint mir ein Nacheinander der Kompetenzentwicklung (nach dem Motto ‚erstmal Lesen und Schreiben, dann sehen wir weiter’) nicht mehr zeitgemäß. Gerade vor der naiven Annahme, dass Kinder und Jugendliche, nur weil sie mit Computertechnik aufwachsen, auch in der Lage seien, sie quasi ‚natürlich’ zu nutzen, muss es ein Miteinander geben – und die breit verankerte Erkenntnis, dass Code nicht nur im Ausnahmefall Informatik-Unterricht relevant ist, sondern eine stets zu berücksichtigende Form der Schriftlichkeit.

Mario Donick, M.A. beendet derzeit an der Universität Rostock seine Promotion zur sinnfunktionalen Analyse von Human Computer Interaction.

Ein Algorithmus ist gleich ein Algorithmus ist gleich ein Algorithmus?

Ein Gastbeitrag von Martina Mahnke*

Eine kurze Stichwortsuche nach dem Begriff „Algorithmus“ in den Online-Archiven der deutschen Leitmedien ergibt über 1.300 (!) Artikel. Doch wovon reden wir eigentlich, wenn wir von Algorithmen reden? Was ist es, was der Algorithmus macht und was sind gesellschaftliche Konsequenzen? Wie können wir das „Algorithmen-Problem“ sinnvoll wissenschaftlich untersuchen? Diese und weitere Fragen stellt das lesenswerte Provokationspapier „Governing Algorithms: A Provocation Piece“, entworfen für die Konferenz „Governing Algorithms“, die am 16./17. Mai 2013 in New York stattfand. Barocas, Hood und Ziewitz wollen Denkanstöße geben und hinterfragen Grundsätzliches. Nachfolgend eine kurze Zusammenfassung der zentralen provokanten Fragestellungen:

  1. Ein Algorithmus – Was ist das eigentlich? Der Begriff „Algorithmus“ hat einen fast mystischen Status erreicht und ist zurzeit in aller Munde. Das zeigt nicht nur dieser Blog, sondern auch Workshop-Titel wie „Algorithms and Markets“ (London School of Economics) oder „Code and Control in Online Spaces“ (Hamburg). Doch was ist das eigentlich genau – ein Algorithmus? Was verbirgt sich hinter dem Begriff und woher kommt das wachsende Interesse an diesem? Auch in der Wissenschaft werden immer wieder gern neue Begriffe verwendet, ist „Algorithmus“ einer von diesen? Worin liegt der Unterschied zu „big data“ und „code“? Würden wir den Algorithmus-Begriff mit dem Begriff des Computers ersetzen, würden wir dann die gleiche Diskussion führen?
  2. Methoden, Wissen, Know-how Algorithmen werden auf der einen Seite als etwas Regulatives, Klassifizierendes, teilweise sogar als etwas Bewertendes dargestellt, auf der anderen als Black-Box-Phänomen. Wie ist das zu erklären? Entstehen diese unterschiedlichen Konnotationen aufgrund der verschiedenen Blickwinkel der einzelnen Disziplinen? Wie sollen Algorithmen untersucht werden? Fachspezifisch oder interdisziplinär? Kann die Black-Box überhaupt geöffnet werden und wenn ja, wie?
  3. Probleme und Lösungen, Erfolg und Misserfolg Algorithmen lösen Probleme. Sind das Probleme, die ohne Algorithmen gar nicht erst entstanden wären? Google’s EdgeRank soll zum Beispiel Orientierung bieten, Ordnung in das „Chaos Internet“ bringen. Eine algorithmische Lösung wird hier als selbstverständlich hingenommen. Was wären Alternativen? Was wäre, wenn die Computerwelt Algorithmen nicht als selbstverständlich annimmt? Wie könnte das Problem des Informationsüberflusses noch gelöst werden?
  4. Agency, Automatisierung, Verantwortung 1998 hat Peter Slezak geschrieben, dass wissenschaftliche Forschung mit dem Computer völlig unabhängig von sozialen und kulturellen Faktoren stattfinden würde. Schon damals gab es viel Widerstand, doch die Faszination der intelligenten, unabhängigen Maschine hat von ihrer Anziehungskraft bis heute nichts verloren. Wer oder was ist es also, was Maschinen so intelligent und so autonom erscheinen lässt? Algorithmen tragen im heutigen Internet zum Beispiel zur Informationsfilterung bei. Dabei werten sie eine vergleichsweise große Datenmenge in kurzer Zeit aus, unmöglich für uns als Menschen. Da die Auswertung nach bestimmten Kriterien erfolgt, treffen die Algorithmen auf die ein oder andere Art und Weise Entscheidungen. Üben Algorithmen dadurch Kontrolle aus? Oder sind es nicht eher die dahinter stehenden Programmierer oder gar die gesamte Firma? Wer oder was trägt hier die Verantwortung?
  5. Geheim, dunkel, unergründlich Nutzer wissen oft nicht, wann sie auf einen Algorithmus treffen und wann nicht. Im Bereich des Datenjournalismus werden mittlerweile komplette Texte algorithmisch, dass heißt voll automatisch, erstellt. Da diese aber Grundlage des Geschäftsmodells sind, werden sie nicht offengelegt. Firmen argumentieren außerdem häufig, dass Algorithmen zu komplex geworden sind, als dass sie von Einzelpersonen noch verstanden werden können. Selbst wenn Larry Page und Sergey Brin an einem Tisch sitzen würden, könnten sie dann die über 200 Kriterien, die Einfluss auf das Google-Suchergebnis haben, erklären? Macht es also überhaupt Sinn den Algorithmus verstehen zu wollen? Können wir ihn überhaupt noch verstehen?
  6. Normativität, implizite Werte und Verzerrungen Von der Techniksoziologie haben wir gelernt, dass Technik nicht neutral ist, sondern immer auch historisch und kontextgeprägt ist. Nicht immer setzt sich also die „beste“ Technologie durch. Solche Prägungen werden in der Fachsprache „bias“ genannt. Da auch Algorithmen historisch und kontextgeprägt sind, können sie dann überhaupt neutral sein? Falls ja, welche Werte sprechen dann für eine solche Neutralität? Was wäre ein guter Algorithmus und was ein schlechter? Gut für wen und schlecht für wen? Wie können diese Werte überhaupt implementiert werden? In der Software, im Design oder gar nicht der dem Algorithmus eigenen Dynamik?
  7. Regeln, Regulierung und Widerstand Automatische Regelsysteme wurden schon in den 70ziger Jahre kritisch untersucht. Wieder (1974) kommt zu dem Schluss, dass Code nicht zu letztendlichen Entscheidungen über Gut und Böse führt, sondern verschiedene Interaktionsmöglichkeiten bietet. Daher, so Wieder, liegt die Verantwortung auch beim Nutzer. Wie können Algorithmen dann also in der konkreten Interaktion untersucht werden? Wie kann herausgefunden, welche Absicht hinter den Algorithmen steht? Wenn man die verschiedenen Erscheinungsformen von Algorithmen bedenkt, wie können sie dann reguliert werden? Oder regulieren sie doch uns? Und was würde Widerstand hin dieser Hinsicht bedeuten?

Zusammengefasst stellt sich also die Frage: Worüber sprechen wir, wenn wir über die Regulierung von und durch Algorithmen sprechen?

Was wir von diesem Provokationspapier lernen können, ist, dass es noch viel zu lernen gibt. Wie in allen Dingen im Leben ist es auch beim Thema Code und Algorithmus wichtig, es nicht von vornherein zu „verteufeln“, sondern sich mit dem Thema kritisch auseinanderzusetzen. Dass viele dazu bereit sind, zeigt unter anderem auch dieses Blog. Herzlichen Dank dafür an Sie als Leser und auch an das Hans-Bredow-Institut!

* Martina Mahnke, M.A., ist Doktorandin am Graduiertenkolleg „ComDigMed“ der Universität Erfurt und beschäftigt sich in ihrer Dissertation mit Algorithmic Media.

Code Literacy oder Digitaler Alphabetismus

Ein Gastbeitrag von Jan Varwig

Der folgende Text ist eine deutsche Übersetzung von „Why Coding is and is Not The New Literacy“, die ich für das Code Literacy Blog geschrieben habe. Hier fehlt das Originalzitat von Pierce Gleeson, der nur auf Englisch im ursprünglichen Post vorliegt und ohne den der erste Absatz ein wenig den Bezug verliert.

Wenn Menschen im Zusammenhang mit Programmierung von „Code Literacy“ oder „digitalem Alphabetismus“ sprechen, ist damit nicht gemeint, dass Programmieren eine dem Lesen und Schreiben ähnliche Grundfähigkeit ist, sondern dass Programmieren die Beherrschung von Schriftsprache als Unterscheidungsmerkmal der intellektuellen Elite ersetzt.

Damit diese Argumentation nachvollzogen werden kann, ist es nötig, zunächst den Begriff des Programmierens zu klären. Das Wesentliche ist nämlich nicht, in der Lage zu sein, tatsächlich Computerprogramme zu schreiben. Wichtiger ist, ein Verständnis dafür zu entwickeln, wie Algorithmen Informationen verarbeiten, wie unsere Welt zunehmend von Maschinen und abstrakten mathematischen Modellen geformt und gelenkt wird, kleinen hochspezialisierten Teilen, die nach strengen Regeln zusammenarbeiten, um neue, mächtigere Fähigkeiten zu entwickeln.

Wenn das Studium der Informatik mich eines gelehrt hat, dann Probleme in ihre Teile zu zerlegen und Nebensächliches vom Wesentlichen zu trennen, bis sich die Essenz offenbart und sich die Lösung fast von selbst präsentiert. Genau dies ist die wichtigste Fähigkeit der Informatiker. Ist diese Denkweise einmal verinnerlicht, verändert sich für immer die Herangehensweise an Probleme jeder Art.

So gut wie jeder kann heute lesen und schreiben, aber nur wenige Menschen verfügen über allgemeine Fertigkeiten zur Lösung von Problemen. Programmieren ist im Grunde nichts anderes als das: formalisiertes und strukturiertes Analysieren und Lösen von Problemen, kombiniert mit eher unwesentlichem Hintergrundwissen über die Syntax der Programmiersprache in der man sich gerade bewegt. Um Programmieren zu können braucht man daher eigentlich keine Ausbildung als Softwareentwickler. Jeder der schonmal mit Excel gearbeitet hat, hat schon programmiert, vielleicht ohne es zu wissen.

Theoretisch in der Lage sein etwas tun zu können und es tatsächlich zu tun, sind zwei sehr verschiedene Dinge. In diesem Fall ist es wichtiger, theoretisch und allgemein zu verstehen, was beim Programmieren vor sich geht, nicht die praktische Erfahrung aus Jahren in der Softwareentwicklung. Dieses Verständnis kommt fast von allein wenn man sich mit strukturiertem Denken beschäftigt, sei es in der Wissenschaft oder der Geschäftswelt.

Es lässt sich kaum verleugnen dass in einer Gesellschaft die besessen von Informationen und Effizienz ist, Menschen die Probleme lösen und Systeme durchschauen können einen wesentlichen Vorteil haben, so wie es in der Vergangenheit Menschen mit Schriftkenntnis gegenüber Analphabeten hatten.