Software ist ein Schlüsselprodukt in unserer Welt. Programmierer*innen sind gefragt und gut bezahlt. Warum gibt es dann Menschen, die ihre Software frei ‚verschenken‘? Antworten finden sich in der Geschichte, in den Strukturen und Werten der Freien-Software-Bewegung. In der Freien Software fließen verschiedene Wissenskulturen mit ihren Wertesystemen zusammen. Sie entstand zu einer bestimmten Zeit in der Entwicklung der Computertechnologie.

Wissenschaft

In seiner „Ethik der Wissenschaft“ schreibt der Wissenschaftssoziologe Robert Merton im Jahr 1942: „Die Erkenntnisse der Wissenschaft sind das Ergebnis sozialer Zusammenarbeit und werden der Gemeinschaft zugewiesen.“ Auf den Schultern von Riesen stehend, sind „Wissenschaftler dem gemeinschaftlichen Erbe verpflichtet. In wetteifernder Kooperation erkennen sie die wesentlich kooperative und kumulative Qualität wissenschaftlicher Errungenschaften an. „Durch die Grundprinzipien der wissenschaftlichen Ethik werden Eigentumsrechte auf ein Minimum gestutzt. Der Anspruch des Wissenschaftlers auf ‚sein‘ geistiges ‚Eigentum‘ ist begrenzt auf Anerkennung und Respekt.“

Die namentliche Anerkennung, die Überprüfbarkeit von Ergebnissen durch wissenschaftliche Peers,  also Gleichrangige, und der Fortschritt des gemeinschaftlichen Erkenntnisprojektes bedingen die Veröffentlichung der Forschungsergebnisse. Forscher*innen, die ihre Ergebnisse geheim halten oder patentieren lassen, werden von der Gemeinschaft missbilligt, betont Merton. Privates ‚geistiges Eigentum‘ sei mit der wissenschaftlichen Ethik unvereinbar. Mertons Grundlagentext beschäftigt die Selbstreflexion der Wissenschaft bis heute, von Fragen der Qualitätssicherung bis zur Open-Access-Bewegung, die wissenschaftliche Öffentlichkeit gegen kommerzielle Schließung sichert.

Diese Normen, die Wissen als Gemeinschaftseigentum organisieren, finden wir in der Hacker-Ethik wieder, über die sie Eingang in die Freie Software erhalten.

Hippies und Hacker

Zeitreise in die 70er Jahre. Minicomputer sind die aktuelle Generation von Rechenanlagen. Sie füllen nicht mehr Säle, sondern nur noch Wandschränke. Die Anlagen finden in Wissenschaft, Verwaltung, Banken und Versicherungen ihren Einsatz. Die kostspielige Hardware wird verkauft oder geleast, die Software gibt es kostenlos dazu. Entwickler unter den Anwendern und Herstellern tauschen ihren Quellcode offen miteinander aus. Software ist noch kein eigenständiges Produkt, sondern ein weitgehend akademisches und damit kollektiv bearbeitetes Grundlagenfeld.

Studentische und soziale Bewegungen – Hippies, Anti-Kriegs-, Frauen-, Schwulen- und Umwelt-Bewegung – bestimmten die 1970er mit Ideen von hierarchiefreien, kleinen, dezentralen und selbstorganisierenden Einheiten. Eine dieser Bewegungen waren die Hacker. Sie entstanden am Rande der Universität und der jungen Disziplin Informatik. Die Werte und unausgesprochenen Grundannahmen dieser Szene hat Steven Levy in seinem Buch „Hackers“ (1984) erstmals in einer Hacker-Ethik zusammengefasst:

  1. Der Zugang zu Computern und allem, was einem zeigen kann, wie die Welt funktioniert, sollte unbeschränkt und vollständig sein.
  2. Alle Informationen sollten frei sein.
  3. Misstraue Autoritäten – fördere Dezentralisierung.
  4. Beurteile einen Hacker nach dem, was er tut und nicht nach Kriterien wie Abschlüssen, Alter, Rasse oder gesellschaftlicher Stellung.
  5. Man kann mit einem Computer Kunst und Schönheit schaffen.
  6. Computer können dein Leben zum Besseren verändern.

Die Parallelen zu Mertons Wissenschaftsethik sind nicht zufällig. Wissenschaft und Hacker sind Gemeinschaften, die gemeinschaftlich an Erkenntnissen arbeiten und ihr Wissen miteinander teilen. Wie die Wissenschaft und soziale Bewegungen organisieren sich Hacker selbst und lehnen Diskriminierung ab.

In Deutschland wurde 1981 der Chaos Computer Club (CCC) aus der Taufe gehoben. Dort fanden sich Menschen zusammen, die von der Magie des Computers, vom Hacker-Geist und einem Bewusstsein für soziale Verantwortung getrieben waren. Der CCC übernahm die beschriebene Hacker-Ethik als sein Grundlagendokument und erweiterte sie später um zwei Punkte:

  1. Mülle nicht in den Daten anderer Leute.
  2. Öffentliche Daten nützen, private Daten schützen.“

Die Ergänzungen sind einerseits motiviert von Fragen der Computersicherheit, mit denen Hacker heute oft assoziiert werden. Dabei ist diese Verbindung erst in den 1980er Jahren aufgekommen, während seit den 1950ern bis heute das Wort als Ehrentitel für jemanden verwendet wird, der besonders kreative technische Lösungen findet. Andererseits begründen sie den Beginn einer Entwicklung, die sich heute unter dem Namen Open Data durchsetzt.

Software wird zur Ware

Anfangs wurde Software nur zusammen mit der Hardware verkauft. Ein Kartellverfahren gegen IBM leitete 1969 die Entkopplung und damit das Entstehen einer eigenständigen Softwareindustrie ein. Sie erlebte ihren Aufstieg mit der nächsten Generation von Rechnern, die in den 1970ern erschien.

1975 war Bill Gates beinahe aus der Harvard Universität zwangsexmatrikuliert worden, weil er seinen an der Uni entwickelten BASIC-Interpreter geheim halten wollte, um ein Geschäft zu gründen. Nach den Universitätsstatuten musste er seine Software gemeinfrei stellen. Darauf verließ er Harvard und gründete Microsoft. In den 1970ern wird Software von einem Kulturgut auch zu einem Wirtschaftsgut.

Von Unix zu Linux

Eine Schlüsselrolle für die Geschichte der Freien Software spielt das Betriebssystem Unix. An ihm zeigt sich eine Entwicklung von einer offenen Wissensgemeinschaft zu einer Ware im Wettbewerb und schließlich zu einer offenen Infrastruktur für das digitale Ökosystem.

In den 1970ern begann die Vernetzung von Computern. AT&T, das staatlich regulierte Telefonmonopol in den USA, benutzte das Betriebssystem Unix und entwickelte UUCP (Unix to Unix Copy), um über normale Telefonleitungen Daten zwischen seinen Rechnern auszutauschen. Die Protokolle TCP und IP (TCP/IP) entstanden, auf denen bis heute das Internet beruht. Ging es anfangs darum, kostspielige Rechenressourcen entfernten Laboren zugänglich zu machen, trat nun die Verbindung von Menschen in den Vordergrund. Auf der Basis von UUCP entstand das USENET mit seinen Newsgroups, das erste weltweite soziale Netzwerk, das ebenfalls bis heute existiert. Der Computer wird von einer Rechenmaschine zu einem Medium.

Als reguliertes Monopol durfte AT&T nicht in den Softwaremarkt einsteigen, gab aber den Unix-Quellcode zum Selbstkostenpreis an Universitäten weiter. Dort wurde Unix aufgegriffen und weiterentwickelt. Diese von AT&T unabhängigen Elemente von Unix wurden an der Berkeley Universität gesammelt. Hier wurden auch die TCP/IP-Protokolle in Unix integriert. 1983 erschien die BSD (Berkeley Software Distribution), in der erstmals die Betriebssysteme von Computer und Netz zusammengeführt wurden. Daher verbreitete sich BSD-Unix rasch.

1984 endete das Telefonmonopol in den USA: AT&T wurde aufgespalten und Unix in eine eigene Firma überführt, die es nun regulär vermarktete. Noch immer konnte man Quellcode-Lizenzen dafür erwerben, doch die kosteten schon bald 100.000 US$. Unternehmen wie IBM, HP und Siemens erwarben sie und passten das Betriebssystem für ihren jeweiligen Zwecke an: Zahlreiche untereinander inkompatible Unix-Varianten entstanden.

Das Labor für künstliche Intelligenz (KI) am M.I.T. in Cambridge, Massachusetts gehörte in den 1980ern zu den Hacker-Paradiesen. Dort arbeitete und lebte der Betriebssystemexperte und wichtigste Gründer der Freien-Software-Bewegung Richard Stallman. Er sah die Ideale der Hacker-Ethik bedroht. Erst mit dem Entstehen eines Softwaremarktes setzte sich die Vorstellung durch, dass Software durch das Urheberrecht und in den USA seit 1980 auch durch Patente geschützt ist. Auch Stallmans Hacker-Kolleg*innen gründeten Firmen. Die Gemeinschaft des freien Austausches löste sich auf – in Konkurrenz mit geschlossenen Quellcodes und Vertraulichkeitsvereinbarungen (NDA).

In dieser Phase startete er 1984 das GNU-Projekt. Das steht für „GNU’s Not Unix“, doch genau das war sein Ziel: ein Betriebssystem zu schreiben, das funktional äquivalent zu Unix ist, aber keine einzige Zeile von AT&T geschützten Code enthält und in freier Kooperation weiterentwickelt werden kann.

Urheberrecht war eine Gefahr für diese Kooperation und zugleich ihre Lösung. Das Gesetz gibt dem Urheber volle Verfügung über sein Werk: Er kann andere davon ausschließen oder nicht. Stallman goss die Hacker-Werte von freier Kooperation und Bildung in einen urheberrechtlichen Nutzungsvertrag, die GNU General Public License (GPL). Darin werden die vier Freiheiten mit einer Bedingung verknüpft: Kopien und veränderte Versionen freier Programme dürfen nur mit denselben Freiheiten verbreitet werden. Damit verhindert die GPL rechtssicher, dass Freie Software unfrei gemacht wird.

Ein Betriebssystem besteht aus einer Vielzahl von Werkzeugen und einem Kern. Dieser Kern war das letzte fehlende Element, um aus GNU ein vollständiges Betriebssystem zu machen. Die erste Version dieses Kerns namens Linux veröffentlichte der finnische Informatiker Linus Torvalds 1991 unter einer Lizenz, die die kommerzielle Nutzung verbot. Ein Jahr später stellte er Linux unter die GNU GPL. Damit war es nun möglich, Linux und GNU zu dem vollständigen freien Betriebssystem GNU/Linux zusammenzuführen, das oft nur als „Linux“ bezeichnet wird.

Unix in all seinen heute meist freien Varianten ist das am weitesten verbreitete Betriebssystem. Neben GNU/Linux ist das aus der Berkeley Universität hervorgegangene BSD wichtig, das Apples proprietärem Betriebssystemen OS X zugrunde liegt. Dank seiner Portabilität und Entwicklungsoffenheit findet sich Unix heute überall: auf Supercomputern und Servern, auf Laptops und Mobiltelefonen oder eingebettet in industriellen Steuergeräten, Medizintechnik, Autos oder WLAN-Routern.

Wissensallmende

Gemeinsames geistiges Gut der modernen Informationsgesellschaft wird als „Wissensallmende“ bezeichnet. Um Freie Software ist eine solche Allmende-Gemeinschaft entstanden. Sie hat sich ihre Infrastrukturen geschaffen mit Code-Repositorien und Kommunikationskanälen. In Konflikten und Debatten hat sie sich ethische Grundregeln für ihre Zusammenarbeit gegeben, die an die Mertonsche Wissenschaftsethik und an die Hacker-Ethik anschließen. Die zentralen Elemente ihrer freien Kooperation hat sie rechtssicher in urheberrechtlichen Lizenzen kodifiziert. Dies alles dient der Nachhaltigkeit der „Allmende-basierten Peer-Produktion“ (Yochai Benkler) von Freier Software.

Digitale Wissensressourcen sind von Natur aus nicht knapp. Erst Urheberrecht und Patente ermöglichen es, Werke und Erfindungen zu veröffentlichen und gleichzeitig Dritte von deren Verwertung auszuschließen. Freie Software will aber gerade niemanden ausschließen. Dass Dritte mit dem Verkauf von Dienstleistungen mit Freier Software Geld verdienen dürfen, ist Konsens in der Gemeinschaft.

Wenn aber niemand ausgeschlossen werden soll, warum schert sich die Gemeinschaft überhaupt um Rechtsfragen? Anders als Patentschutz, der durch Anmeldung entsteht, ist ein Werk im Sinne des Urheberrechts mit seiner Entstehung automatisch geschützt. Nun könnten Autor*innen Freier Software einfach auf ihre Urheberrechte verzichten und ihre Werke gemeinfrei (engl.: Public Domain) erklären. Auch dafür braucht es aber eine Lizenz, wie die Unlicense oder CC0 (Creative Commons Zero), die neben dem vollständigen Verzicht auf alle Urheberrechte zudem einen Gewährleistungsausschluss enthält. Einige Softwareprojekte gehen diesen Weg, doch die meisten verwenden Freilizenzen mit weiteren Bedingungen.

Liberale Lizenzen wie BSD und MIT verpflichten zur Nennung des Urhebers in allen Kopien und abgeleiteten Werken. Copyleft-Lizenzen wie die GPL verpflichten darüber hinaus dazu, dass Kopien und abgeleitete Software nur mit denselben Freiheiten verbreitet werden dürfen. So wird sichergestellt, dass Freie Software immer frei bleibt und das Universum mit jeder Weiterentwicklung wächst.

Dazu braucht es eine Ressource: die Bereitschaft von Programmierer*innen, zur Entwicklung beizutragen. Diese nimmt ab, wenn sie feststellen, dass ihre Software für unfreie Entwicklungen verwendet wird. Die ethische Norm verbietet die kommerzielle Nutzung nicht, verlangt aber eine Wechselseitigkeit von Geben und Nehmen. Auf diese Weise erzeugen Copyleft-Lizenzen eine nachhaltige Wissensallmende.

Programmierer*innen wollen Software entwickeln und interessieren sich für Urheberrecht allenfalls, wenn es ihnen auf die Füße fällt. Genau das passiert aber, wenn sie keine Lizenz wählen. Ihre Software steht automatisch unter dem Urheberrecht. Dritte müssen sie um Erlaubnis bitten, wenn sie damit weiter arbeiten wollen. Software verwendet in aller Regel Elemente aus verschiedenen Projekten. Vor einer Veröffentlichung müssen für alle die Rechte geklärt werden, und die jeweiligen Lizenzen müssen ihre Verbindung erlauben.[1]

Freie Software läuft immer wieder Gefahr, eingehegt zu werden. So haben viele Freilizenzen auf die Bedrohung durch Softwarepatente reagiert. Die Lizenzunlust stellt eine – wenn auch unwillentliche – Gefahr für die Nachhaltigkeit der Wissensallmende dar. Die Debatte darüber in der Allmende-Gemeinschaft hat begonnen.[2]

Warum machen die das?

Wissenschaftliche Ethik, Hacker und Hippies allein hätten der Freien Software wohl nicht zum Durchbruch verholfen. Eine wichtige Rolle dabei hat der Wandel in der Informations- und Kommunikationsindustrie von Infrastrukturen (Betriebssystemen und Netzen) zu Mehrwertdiensten und Inhalten gespielt. Für die großen Internet-Unternehmen ist Software Mittel zum Zweck. IBM und Apple verdienen ihr Geld mit Hardware, Google und Facebook mit Werbung und Amazon mit Lieferdiensten. Für ihre Plattformen auf bewährte, ausgereifte Freie Software aufbauen zu können, spart Kosten. In der jeweiligen Gemeinschaft finden sie Programmierer*innen, die sie anheuern können. Vor allem für sicherheitsrelevante Software hat sich die Erkenntnis durchgesetzt: Geheimniskrämerei ist zu misstrauen; nur Quellenoffenheit erlaubt es, zu überprüfen, dass sich in einem Programm keine Hintertüren, Schadsoftware oder Sicherheitslücken verstecken. Umgekehrt schadet es den Unternehmen nicht, ihre eigenen Entwicklungen in die Community zurück zu geben. Aus den gleichen Gründen setzt auch der öffentliche Sektor immer mehr auf Freie Software.[3]

Neben diesen pragmatischen, wirtschaftlichen Entwicklungen bleibt Freie Software in ihrem Kern eine Wissensgemeinschaft. Eine der wenigen großen Studien zur Motivation in der Freien Software ist der FLOSS Survey der Universität Maastricht von 2002[4]. 20% der Befragten waren Student*innen, die Mehrzahl Softwareingenieure oder Programmierer*innen, die meisten Angestellte, die in ihrer Freizeit an Freier Software arbeiten. Die angegebenen Gründe sind vielfältig: Dazu gehören pragmatische (ein Problem lösen, die Software anderer Entwickler*innen verbessern), soziale (auf eine neue Art kooperieren, mithelfen, die Idee für eine Software zu verwirklichen) und in geringem Maß auch finanzielle Gründe (sich Reputation erwerben, um die Chancen auf dem Arbeitsmarkt zu verbessern, Geld verdienen). Die am häufigsten genannten Gründe sind jedoch, neue Fertigkeiten zu lernen und Wissen an andere weitergeben zu wollen.

Wissenschaft, Hacker und die Freie-Software-Bewegung sind Gemeinschaften von Lehrenden und Lernenden. Die gedeihen am besten in Freiheit und Offenheit.

[1] Für einen Vergleich von Freilizenzen und ihren Kompatibilitäten siehe: http://www.gnu.org/philosophy/license-list.html
[2] Asay, Matt (2015): The Github Kids still Don’t Care about Open Source.
[3] https://de.wikipedia.org/wiki/Open-Source-Software_in_%C3%B6ffentlichen_Einrichtungen
[4] International Institute of Infonomics, University of Maastricht (2002): Free/Libre and Open Source Software: Survey and Study. FLOSS Final Report.