heise online · c't · iX · Technology Review · Telepolis · mobil · Security · c't-TV · Jobs · IT-Markt · Kiosk
c't
  c't 21/2001, S. 270: Open Source  
 
Aktuelles Heft
 
Support
Hotline & FAQ
Tipps & Tricks
Treiber & BIOS
Firmenkontakte
 
Download
Software zu c't
Software-Verzeichnis
c't-Projekte
Testbilder & Vorlagen
 
Service
Tipp-Datenbank
c't-CD-Register
Internettarife
Telefontarife
Virenschutz
Flohmarkt
 
Magazin
Heftarchiv
c't specials
English Pages
Benchmarks
Red. Stuff
Leserforum
c't-Bildmotive
URLs aus c't
Schlagseite
 
Aktionen
Browsercheck
Krypto-Kampagne
Schulen ans Netz
Netz gegen Kinderporno
TV/Radio-Termine
 
Abo & Heft
Veranstaltungen
Mediainfo
Kontakt
Impressum

Kiosk - Das Archiv via Micropayment

     
Aufmacher

Gundolf S. Freyermuth

Die neue Hackordnung

Aus der Open-Source-Geschichte lernen, Teil II

Die Softwarebranche als Laboratorium der Zukunft: Die Open-Source-Praxis entwickelt historisch neue Organisations- und Rechtsformen und damit Modelle für eine Überwindung der industriellen Ordnung.

Aus der Open-Source-Geschichte lernen: Von Richard Stallmans Versuch einer Neuordnung geistigen Eigentums über Linus Torvalds pragmatischer Neuorganisation der Arbeit zu Eric Raymonds Legitimierung der neuen digitalen Praxis - die Open-Source-Praxis als Modell geistigen Eigentums und kreativer Arbeit in der digitalen Epoche.

Viel zu geringe Aufmerksamkeit habe die Menschheit den untergründigen Religionskriegen der digitalen Epoche geschenkt, schrieb Umberto Eco einmal: Zweifelsfrei nämlich kämpften die Evangelisten des grafisch üppigen Macintosh für die katholische, himmelreichere Version des Rechnens, während die DOS-Anhänger mit protestantisch-lustfeindlicher Unerbittlichkeit daran gemahnen, dass es nicht jedem beschieden sei, erlöst zu werden. Ecos furiose Glosse für das italienische Magazin Espresso fing am Ende der Gründerjahre des PC ihren vergehenden Geist ein. Der Text erschien 1994, ein Jahr also, bevor Microsoft mit Windows 95 mehr oder weniger die Kopie des Mac OS gelang, und just um die Zeit herum, als unter weitgehendem Ausschluss der Weltöffentlichkeit - weil nur in Finnland und im noch kaum bevölkerten Cyberspace - Linux 1.0 veröffentlicht wurde [1].

Das freie Betriebssystem sollte zwar mit verblüffender Schnelligkeit das ungleiche Desktop-Duopol von Macintosh und DOS/Windows unterminieren und zur wesentlichen dritten Kraft werden. Doch an dem eifernden Charakter der Auseinandersetzungen änderte es nichts. Im Gegenteil: Viele, die Bill Gates als Antichrist verteufelten, verehrten Linus Torvalds bald als Heiland. Steven Johnson etwa stellte in Feed, der von ihm herausgegebenen einflussreichen (und im Juni 2001 eingestellten) Online-Zeitschrift, die Veröffentlichung von Linux in eine Reihe mit dem Port-Huron-Statement, dem Epoche machenden Manifest, das 1962 einer ganzen Generation amerikanischer Studenten die Protest-Agenda setzte. Neutralere Beobachter bestaunten eher den virulenten Messianismus im Umkreis der Open-Source-Bewegung. Mit ‘Luthers Übersetzung der Bibel in die Volkssprache’ werde Linux verglichen, wunderte sich Harvey Blum in der Online-Ausgabe des ehrwürdigen Magazins Atlantic und zitierte den Perl-Erfinder Larry Wall, der Open Source als Software-Ausdruck der alten christlichen Botschaft beschreibt, dass die Schöpfung nicht abgeschlossen und der Mensch mit freiem Willen und der Fähigkeit zur kreativen Kollaboration begabt sei.

Ihren Anhängern bedeutet freie Software so je nach Ausrichtung politische Revolte, religiösen Sinn und auch große Kunst: 1999 wurde das Betriebssystem Linux für seine Verdienste um eine demokratische Digitalisierung mit dem Prix Ars Electronica ausgezeichnet. Linus Torvalds selbst erfreut sich folgerichtig, wie Andrew Leonard in seiner Open-Source-Geschichte feststellt, ‘des am schnellsten wachsenden Personenkults in der Welt der Technologie’.

Damit spielt Torvalds heute in der Open-Source-Szene eine ähnliche Rolle wie Richard Stallman in den achtziger Jahren innerhalb der Free-Software-Bewegung. Damals war die Entwicklung freier Software durch technologische Fortschritte ebenfalls an eine neue Schwelle getreten. Die Selbst-ermächtigung der Anwender, die mit der Time-Sharing-Bewegung der sechziger Jahre begann, hatte im Zuge der beginnenden Vernetzung in den USA während der siebziger Jahre zur Ausbildung einer Vielzahl offener Produktionsgemeinschaften geführt (Prinzip 1 im ersten Teil [2]). Diese lockeren Gruppen von Programmierern machten Unix damals zum wichtigsten Betriebssystem für Mikrocomputer. Ebenso etablierten sie freie Software und offene Protokolle sukzessive als Standards in zentralen Bereichen der verschiedenen Netze (Prinzip 2). Die wichtigste Innovation war dabei die Beschleunigung des ‘peer review’ auf Echtzeit. Sie verwandelte das Werkzeug wissenschaftlicher Kritik in ein interaktives dialogisches Produktionsmittel für geografisch zerstreute Gruppen (Prinzip 3).

Anfang der achtziger Jahre kam es dann zu zwei entscheidenden Innovationen: Die Einführung von TCP/IP ermöglichte die Verbindung der wachsenden Zahl unverbundener öffentlicher und privater Netze zum Internet. Gleichzeitig ließen Leistungssteigerung und Verbilligung Personal Computer in vielen Bereichen an die Stelle der teureren Mikrocomputer treten. Damit entstand das Bedürfnis, freie Software auch für PCs zu produzieren.

Prinzip 4

Geistiges Gemeineigentum

Diese Nachfrage zu erfüllen, setzte sich Richard Stallman vom Artificial Intelligence Laboratory des MIT zum Ziel. Seinen Ruf als Experte für freie Software hatte er sich seit 1975 mit Emacs erworben (kurz für Editing MACroS). In diversen Varianten ist das Programm bis heute einer der besten Texteditoren und ein unentbehrliches Werkzeug zur Softwareproduktion. 1984 initiierte Stallman dann das GNU-Projekt zur Schaffung einer freien PC-Version von Unix. 1985 gründete er die Free Software Foundation. Mit seinen einflussreichen Non-Profit-Initiativen sorgte er so dafür, dass freie Software auch in den Zeiten von Microsofts erfolgreichem Streben nach Desktop-Dominanz lebensfähig blieb. Belohnt und geehrt wurde Stallmans Engagement 1990 mit dem hoch dotierten MacArthur Genius Grant.

Dass allerdings Anhänger freier Software damals plötzlich eine eigene Institution für notwendig hielten, zeugt von den Anfängen sozialen Selbstbewusstseins. Mit der Stiftung versuchte Stallman, die Programmier- und Distributionspraxis, die sich in den siebziger und frühen achtziger Jahren naturwüchsig herausgeschält hatte, auch intellektuell zu begreifen und vor allem durch neuartige Formen sozialer und juristischer Verträge abzusichern. Vorrangigstes Ziel war (und ist) es dabei, die Freiheit von Software zu gewährleisten - worunter primär die Freiheit der Nutzer zu verstehen ist, Programme zu kopieren, weiterzuverteilen und den eigenen Bedürfnissen gemäß zu verändern.

Dementsprechend formulierte die Stiftung eine General Public License (GPL). Sie leitet seit anderthalb Jahrzehnten juristisch die Veröffentlichung freier Software an. Ihr Grundgedanke ist das dem Copyright durchaus ironisch entgegengesetzte Copyleft. Es erlaubt, geistiges Eigentum anderer beliebig zu modifizieren und auch profitabel zu vertreiben, solange das neue Produkt freien Zugang zum Quellcode gewährt. Verboten sind unter der GPL also proprietäre Hinzufügungen, die für die Zukunft die Freiheit des peer review und damit Verbesserungen verhindern.

Mit ihrem neuartigen Ansatz zur Regelung geistigen Eigentums schuf die Free-Software-Foundation ein folgenreiches Modell - viele Jahre, bevor das Internet zum Medium der Massen wurde und in ihm nicht nur Programme, sondern auch digitalisierte Texte, Töne und Bilder mehr oder weniger frei kursieren konnten. Heute nun, da die technische und damit praktische Unhaltbarkeit geltender Copyrightbestimmungen zu Tage liegt und Fragen geistigen Eigentums zu einem zentralen Konfliktfeld der Digitalisierung geworden sind, wird die Hellsicht deutlich, mit der sich Stallman bereits vor bald 20 Jahren dem Problem stellte. Gleichzeitig aber erlaubt der historische Abstand auch, die Verhaftung der Free-Software-Bewegung im Zeitgeist und die daraus resultierenden Mängel ihrer Lösungsangebote zu erkennen.

Gegenkulturelle Wurzeln, libertäre Früchte

Nicht nur Stallmans damalige Äußerungen, auch die GPL waren beeinflusst von Werten und Haltungen der alten Hippie-Hacker-Gegenkultur. Typisch für deren Ziele war der Schlachtruf des Hypertext-Erfinders Ted Nelson: ‘Computer Power to the People’. Er verlangte Anfang der siebziger Jahre nach einer radikalen Demokratisierung des bürokratisch-elitär geregelten Zugangs zu den wenigen und teuren Rechnern. Diesen guten Zweck gedachte man allerdings durch Vergesellschaftung des Vorhandenen zu erreichen. Zehn Jahre später, zurzeit der Stiftungs-Initiative, äußerten sich die antikapitalistischen und eigentumsfeindlichen Wurzeln der Free-Software-Ideologie noch im changierenden Gebrauch des Adjektivs frei. Software sollte mal frei sein im libertären Sinne von freier Liebe und freier Meinungsäußerung, mal frei im sozialistischen Sinne von Freikarten und Freibier - und in der Regel möglichst beides.

Zwar besaß die Forderung nach freierem Zugang zu Computern und Programmen in den sechziger und siebziger Jahren ihre Berechtigung, da digitale Technologien für Normalbürger praktisch unerschwinglich waren. Mit der Durchsetzung des PC als Konsumgegenstand wurde die Forderung nach Gratis-Hard- oder Software jedoch zunehmend gegenstandslos. Statt durch Verwaltung des vorhandenen Mangels erwirtschaftete der Kapitalismus einmal mehr massenhafte Verfügung durch produktiven Zuwachs. Die stete Verbilligung von Hard- und Software ließ denn auch innerhalb der Free-Software-Bewegung in den neunziger Jahren libertäre Gedanken über die sozialistischen siegen.

Demokratische Kontrolle

In der Gegenwart sind die Grundgedanken des Copyleft gar zum politisch wie wirtschaftlich interessanten Eigentumsmodell geworden - für den immer mehr zur Regel werdenden Fall geistiger Produkte, die nicht individuell, sondern in Kollaboration geschaffen wurden. Was nämlich unter einer Perspektive, die vom einzelnen Schöpfer ausgeht, einer Enteignung gleicht, bewirkt im Falle kollektiver Kreation gerade das Gegenteil: indem es die übliche individuelle Aneignung gemeinschaftlich geschaffener Werte durch private oder juristische Personen verhindert.

Die meisten Programme - wie im Übrigen viele andere Varianten intellektueller Schöpfung beziehungsweise geistigen Eigentums, von Filmen bis zu Forschungsprojekten - entstehen heute als Ergebnis einer Vielzahl von Einzelanstrengungen. Individuelle und ausschließliche Besitztitel entsprechen diesen Arbeitsprozessen nicht. Zudem verhindern sie eine freie Weiterentwicklung durch interessierte Gruppen, selbst durch die ursprünglichen Mitarbeiter. Gegenüber einem wesentlichen Teil der avanciertesten Produkte der Wissensgesellschaft versagt so die Patent-Haltung zum geistigen Eigentum. Gerecht wird ihnen eher ein anderes, allemal so bewährtes Modell: das akademische.

Gegen den Einwand von Microsofts Vizepräsident Craig Mundie, die GPL entwerte die Idee kreativer Arbeit, wendete denn auch Red-Hat-CTO (Chief Technology Officer) Michael Tiemann ein, dass dies genauso wenig der Fall sei, wie die Abschaffung der Sklaverei einst die Idee des Privateigentums schmälerte: ‘Da Software mehr und mehr Teil unseres Lebens wird, die Basis unserer Kommunikation und die Verkörperung unserer persönlichen Identität, sollten wir, das Volk, nicht diejenigen sein, die über die Freiheit verfügen, die Software zu kontrollieren (und nicht umgekehrt)?’

In der Wissensgesellschaft gehört, wie Harvard-Jurist Larry Lessig im Microsoft-Monopol-Prozess deutlich machte, eine demokratische Kontrolle über die digitale Infrastruktur unabdingbar zur Erhaltung von intellektueller und wirtschaftlicher Freiheit. Programme und Protokolle ermöglichen und limitieren zugleich zivilisatorische Erfahrungen. Was den Alltag so nachhaltig prägt und wovon auch das Überleben unzähliger Unternehmen abhängt, kann nicht auf Dauer Privatbesitz und außerhalb des Einflusses der Mehrheit der Anwender bleiben. ‘Die brutale Wahrheit ist einfach die’, schreibt Eric Raymond in ‘The Magic Cauldron’: ‘Wenn die entscheidenden Vorgänge in deinem Geschäft von undurchsichtigen Bits abhängen, in die du keinerlei Einsicht hast (mal ganz abgesehen davon, dass du sie nicht verändern kannst), dann hast du die Kontrolle über deinen eigenen Laden verloren. Du brauchst deinen Lieferanten mehr, als der dich braucht - und du wirst für dieses Ungleichgewicht der Kräfte bezahlen, mehr und immer mehr.’

Verstaatlichung oder staatliche Kontrolle, die in der industriellen Epoche übliche Lösung solcher Infrastrukturprobleme, bedeutete jedoch, den Teufel des wirtschaftlichen Monopols mit dem bürokratischen Beelzebub auszutreiben und technologischen Stillstand zu riskieren. Dass die Mehrheit der US-Computernutzer dem Versuch skeptisch gegenübersteht, Microsoft auf die eine oder andere Weise unter Staatsaufsicht zu stellen, hat darin seinen Grund. Einen moderneren Ansatz zur demokratischen Kontrolle der digitalen Infrastruktur bietet dagegen die Open-Source-Praxis.

Wie existenziell sie für die Wohlfahrt der gesamten Menschheit werden könnte, deutet die Verschmelzung von Informatik und Genetik an. Bei vielen geschützten Programmen, deren Quellcode als Kronjuwelen einer Firma geheim gehalten werden, geht es bereits um genetisches Wissen - um die Programme unseres Lebens. Auf dem Gebiet der Bioinformatik braucht es daher wie auf keinem anderen freie Verfügbarkeit von Informationen. Permanenter peer review kann Missbrauch verhindern und - wichtiger noch - die Forschung beschleunigen. Proprietärer Besitz hingegen, der die Mehrheit der Wissenschaftler von der Mitarbeit ausschließt, kostet Zeit und damit Leben. ‘Wir können uns’, sagen Experten wie Drew Endy vom Molecular Sciences Institute in Berkeley, ‘ein biologisches Microsoft nicht leisten.’ Die Erfolgsgeschichte von Linux deutet die Alternative an.

Prinzip 5

Die neue Hackordnung

Mit Intels 386er-Prozessor und verbilligten Speichermedien wurde Anfang der neunziger Jahre erstmals digitales Gerät für Privatleute erschwinglich, das so leistungsfähig war wie zuvor nur Mikrocomputer zum Preis einer Luxuslimousine. Mit den neuen PCs wuchs der Bedarf nach entsprechend professioneller Software. Stallmans GNU wie auch andere experimentelle Anläufe, Unix zu portieren, waren jedoch noch nicht weit genug gediehen. Zu einem epochalen Entwicklungssprung hatte dagegen das Internet angesetzt - dank seiner Internationalisierung und Privatisierung, vor allem aber dank eines weiteren Beispiels freier Software. Timothy Berners-Lee, damals am CERN-Institut in Genf, heute MIT, veröffentlichte 1991 die Software, die das World Wide Web begründete - in akademischer Tradition ohne jeden Copyright-Anspruch. Das freie WWW verdrängte binnen weniger Jahre andere Ansätze, das Netz benutzerfreundlicher zu machen, etwa das um 1990 erfolgreiche Gopher-System, auf das jedoch 1993 die Universität von Minnesota kommerzielle Ansprüche erhob.

Aus der explosiv wachsenden Online-Bevölkerung rekrutierten sich die Programmierer für Linus Torvalds’ Projekt eines Unix-Kernels für 386er-Prozessoren. Was sie in so überraschend großer Zahl zu Linux zog, war eine zentrale Innovation. Sie beschreibt Eric Raymond in seinem Manifest ‘The Cathedral and the Bazaar’, das 1997 am Anfang der formellen Gründung der Open-Source-Bewegung stand: ‘Das wichtigste Feature von Linux war nicht technisch, sondern soziologisch.’ In der freien Softwarebewegung nutzte man zwar schon vorher das Internet zur Kommunikation und Übermittlung von Code. Doch die Organisation größerer Projekte hatte sich den neuen technischen Möglichkeiten kaum angepasst. Bei aller geografischen Zerstreutheit bildeten die Beteiligten recht geschlossene Hierarchien, die ihre Arbeitsergebnisse nur untereinander austauschten und Programme erst nach Fertigstellung veröffentlichten.

Torvalds brach mit dieser Tradition. Er verzichtete so weitgehend wie niemand vor ihm auf Zwangsjacken in der industriellen Tradition. Es gab kaum lineare Abschnitts- und Terminplanungen, keine hierarchischen Vorgaben und restriktiven Zugangskontrollen. Grundsätzlich konnte sich jeder beteiligen. Neuen Code testete Torvalds nicht lange intern, er veröffentlichte ihn vielmehr in schneller Folge im Internet. Das Auffinden von Fehlern und ihre Beseitigung blieb damit weitgehend der globalen Gemeinschaft überlassen. Mit dem Fortschreiten des Projekts kam es zudem zu einer modularen Strukturierung, die Verantwortung für Teilbereiche auf interessierte Subgruppen übertrug. An jeder Aufgabe arbeiteten so jeweils Menschen, denen ihr Part nicht zugeteilt worden war, sondern die ihn sich ihren Qualifikationen und Motivationen entsprechend ausgesucht hatten.

Dieser sozialen Innovation verdankte sich der enorme Anklang, den Torvalds Bitte um Mithilfe fand. Globale Offenheit statt lokaler Geheimniskrämerei, Einbeziehung Interessierter statt Ausgrenzung fremder Hilfe, dynamische Selbstorganisation statt statisch-linearer Planvorgaben, Zeitsouveränität statt Fremdbestimmung, Eigenverantwortlichkeit statt verwalteter Kontrolle, permanente peer reviews statt Beurteilungen durch Vorgesetzte und Management - mit dieser gebündelten Abkehr vom Vorbild industrieller Arbeitsorganisation entwarf das Linux-Projekt bereits in seiner Frühzeit ein Modell vernetzter Wissensproduktion. Richard Gabriel von SUN beschreibt es als ‘eine Art semi-chaotische, selbst organisierende Verhaltensstruktur, in der zahlreiche kleine Reparatureingriffe schnell zum Aufbau komplexer und massiver Kreationen führen können.’

Entscheidend für den Erfolg von Linux war neben der optimalen Nutzung der technischen Produktivkräfte zur entorteten Echtzeit-Kollaboration die ebenfalls verbesserte Nutzung der knappen Ressource menschlicher Kreativkraft - die gesteigerte Motivation der Mitarbeiter. Denn die Linux-Praxis gewährte Arbeits- und Gemeinschaftserfahrungen, die im Gegensatz nicht nur zur verwalteten kommerziellen Softwareproduktion, sondern auch zur bis dahin üblichen Organisation freier Projekte standen. Die Befriedigung, die viele Mitarbeiter in ihrer Arbeit fanden, erinnerte vielmehr an die durch wissenschaftliche oder künstlerische Arbeiten. Sie werden ja gleichfalls nicht fremdbestimmt, zu festen Arbeitszeiten und allein zum Zwecke des Lebensunterhalts aufgeübt. Bei ihnen geht es wesentlich auch um das eigene Selbstwertgefühl und Ansehen in der Gemeinschaft.

Historische Vorbilder solch kollaborativer Produktion, die schon zu analogen Zeiten auf die Open-Source-Praxis vorausweisen, finden sich in den Experimenten der künstlerischen Avantgarden des 20. Jahrhunderts, etwa in Techniken der Appropriation - der kreativen Aneignung fremden Materials wie etwa beim Collagieren und Sampling - und vor allem in den Schreibspielen der Surrealisten. Diese Nähe der Open-Source-Praxis zur Kunst lässt sich nicht nur im historischen Rückblick feststellen. Sie prägt durchaus die aktuelle Praxis. Davon zeugen die Selbstäußerungen führender Vertreter der Free-Software- und Open-Source-Gruppen, die immer wieder von Selbstausdruck und Selbstverwirklichung sprechen. Eric Raymond zum Beispiel schreibt in ‘The Cathedral and the Bazaar’: ‘Ich tue, was ich tue, primär als künstlerische Befriedigung.’

Open Source: die Theorie zur Praxis

Im Zentrum seines 1997 verfassten Open-Source-Manifestes steht denn auch die Auflösung der kapitalistischen Kontrollwirtschaft. An ihre Stelle tritt, schreibt er, ein Modell der Arbeit, das lineare Planungshierarchien, wie sie beispielsweise den Bau einer Kathedrale prägen, durch die offenen, von Gleichberechtigung ausgehenden Transaktionsstrukturen eines Bazars ersetzt. Raymonds Thesen, die er auf Kongressen vortrug und im Internet publizierte, fanden weiten Anklang - nicht zuletzt, weil sie der zunehmend erfolgreichen Praxis freier Software ein theoretisch-historisches Fundament verliehen und dabei gleichzeitig den ideologischen Ballast abwarfen, der Stallmans Free-Software-Bewegung gehindert hatte, breitere Akzeptanz zu finden.

Zu den prominentesten Lesern, die sich von Raymonds Manifest beeinflussen ließen, gehörte Netscape-Gründer Jim Barksdale. Er fasste den Entschluss, mit der industriellen Geheimniskrämerei zu brechen und den Quellcode des Netscape-Browsers zu veröffentlichen. Ironischerweise popularisierte damit die Firma, deren Börsengang keine drei Jahre zuvor das Internet als Geschäftsgelegenheit ins Bewusstsein der breiten Öffentlichkeit katapultiert hatte, nun auch Anfang 1998 die Gegenbewegung. Nach Jahren eher verborgenen Wirkens gerieten die Vertreter der freien Software ins Licht der Medien. Raymond beschloss, die Gunst der Stunde zu nutzen. Er, Bruce Perens und andere Anhänger suchten nach einem pragmatischen Slogan, einem treffenden Markenzeichen, das anders als der von Stallman, dem Kommunarden des Code, geprägte Begriff der ‘Free Software’ nicht mehr die sozialistischen Träume der analogen Gegenkultur der sechziger Jahre assoziieren ließ.

Mit Open Source fanden sie die magische Wortkombination. Der Begriff war mehr als eine unverdächtige und mehrheitsfähige Sprachregelung. Er erfasste, was sich durch Linux verändert hatte. War Free Software der Kampfbegriff einer kleinen Minderheit gegen die erdrückende und Veränderungen unterdrückende Übermacht proprietärer Produkte gewesen, so entsprach die konsensträchtige Rhetorik der Open-Source-Bewegung der Realität des Jahres 1998: dem massenhaften Erfolg bei den avanciertesten Anwendern, dem Aufstieg der freien Software vom subkulturellen Billigparia zum technologisch ernst zu nehmenden Konkurrenten und vor allem auch zum leistungsfähigen Wirtschaftspartner. Denn bereits zwischen 1992 und 1994, dem Jahr, als Linux 1.0 veröffentlicht wurde, waren erste und durchaus erfolgreiche Open-Source-Firmen entstanden.

Prinzip 6

Geschäftsmodell konkurrierender Kollaboration

Deren Geschäftsmodell weicht freilich von dem traditioneller Softwarefirmen dramatisch ab. Im Verhältnis zu anderen Open-Source-Anbietern ersetzt es die übliche Konkurrenz mittels proprietärer Angebote durch so genannte coopetition, eine Mischung aus Zusammenarbeit (cooperation) in technologischer Hinsicht und Konkurrenz (competition) im serviceorientierten Wettbewerb um die Kunden. Diese Konzentration auf Service wiederum beruht auf der Einsicht, dass Software - die immaterielle Abspaltung der in mechanischen und industriellen Maschinen materiell gefangenen Algorithmen - ihrem Charakter nach eben kein abgeschlossenes industrielles Produkt darstellt, sondern vielmehr einen prinzipiell nach hinten offenen Prozess. Jede Version ist nur eine Stufe in einem steten Entwicklungsvorgang, der auf die Befriedigung der sich wandelnden Ansprüche der Anwender zielt. Auch gratis erhältliche Open-Source-Software bietet daher reichlich Service- und damit Geschäftsgelegenheiten. Firmen wie SuSE, gegründet bereits 1992, oder Red Hat und Caldera, beide 1994, sammeln aus der Menge freier Software, die sich im Netz akkumuliert, funktionierende Pakete zusammen, sorgen für die Komplettierung des einen oder anderen fehlenden Elements und verleihen ihrem Auswahlangebot durch Supportleistungen gesteigerten Gebrauchswert.

Dieser Erfolg der letzten zwei, drei Jahre verdankte sich wesentlich der intellektuellen und institutionellen Open-Source-Plattform von 1998. Mit ihr wurde der freien Software der Weg in die Geschäftswelt geebnet. Das nützte den Open-Source-Firmen nicht zuletzt deshalb, weil es damals binnen weniger Monate gelang, mächtige Verbündete zu gewinnen. Zu ihnen zählen heute Intel, Oracle, Dell und vor allem IBM, das allein dieses Jahr eine Milliarde Dollar für die Durchsetzung von Linux ausgeben will. Der Einsatz der etablierten Firmen für Open-Source-Ware - neben Linux insbesondere auch für Apache - sowie die gelegentliche Freigabe von eigenem Quellcode (‘outsourcing to Open Source’) hat die Akzeptanz von freier Software erhöht und die Nutzerbasis stark verbreitert.

Gewissen ökonomischen Rückschlägen im Gefolge der dot.com-Krise zum Trotz, zeichnet sich ein Ende der Neunziger-Jahre-Erfolgsgeschichte von Linux und anderer offener Software, wie es viele Skeptiker nach den schnellen Anfangserfolgen befürchteten, denn auch bislang nicht ab. Eric Raymond behauptet im Gegenteil einen doppelten historischen Trend zu offenen Systemen. Er zeige sich zum einen im Zyklus einzelner Programme, die mit zunehmendem Alter gegenüber innovativer Konkurrenz nur bestehen können, indem sie zu De-facto-Standards avancieren. Als Beispiel führt Raymond Doom an: Die Veröffentlichung des Quellcodes zog eine Vielzahl freier Entwickler an, die dem Spiel neues Leben einhauchten und so seine Auswertungszeit verlängerten.

Zum zweiten aber tendiere die Digitalisierung grundsätzlich zur Etablierung offener Standards. Vom Fünfziger-Jahre-Chaos proprietärer Betriebssysteme und Programme, deren Daten nicht einmal zwischen Computermodellen desselben Herstellers austauschbar waren, führe so über proprietäre Standardisierungen, wie sie Microsoft leistete, eine gerade Entwicklungslinie zu offenen Standards, wie sie sich mit Linux ankündigen. Ob Raymonds Behauptung eines solchen langfristigen Trends stimmt oder nicht: Gegenwärtig gewinnt die Open-Source-Bewegung unentwegt an Tempo - vorangetrieben durch Microsofts eskalierende Rücksichtslosigkeit, aber auch durch die unbestreitbaren praktischen wie politischen Vorteile des Systems und nicht zuletzt, wie Andrew Leonard in Wired schrieb, ‘von einem wachsenden sozialen Bewusstsein, dass das Teilen von Informationen funktioniert’.

Jenseits von Software

Die Open-Source-Praxis erscheint daher als eine epochale kulturelle Anpassungsleistung an die Möglichkeiten, die sich mit digitalen Technologien und der globalen Vernetzung eröffneten. Ihr Siegeszug geht an die Wurzeln der industriellen Ordnung. Auffällig sind dabei Parallelen zur Industrialisierung vor rund 200 Jahren. Im Vergleich erlauben sie ein distanzierteres Verständnis des historischen Prozesses, dessen unmittelbare und daher leicht bewusstlose Zeitgenossen wir sind. Denn auch damals betrieben neue Technologien die Überwindung der etablierten Strukturen. Und auch damals standen im Zentrum der Entwicklung die beiden Elemente, um die heute wieder gerungen wird: die Verfügung über geistiges Eigentum und eine bessere, weil den neuen Technologien entsprechendere Arbeitsorganisation.

Bei dem Wandel im Umgang mit intellektuellem Kapital nach 1800 ging es zunächst darum, im Interesse des industriellen Fortschritts die Rechte an innovativem geistigen Besitz zu sichern. Denn erst solche juristischen Garantien ermöglichten im Rahmen der ebenfalls neu geschaffenen Rechtsformen industrieller Firmen die private Kollektivfinanzierung von Großkonzepten wie der Errichtung großer Fabriken oder dem Ausbau der Eisenbahn. Eine radikale Modernisierung und institutionelle Absicherung des Patent- und Urheberrechts begann. In der Frühzeit der Industrialisierung vollendeten sich damit Bestrebungen nach einer tendenziellen Gleichstellung von materiellem und geistigem Besitz.

Eingesetzt hatten sie bereits im 17. Jahrhundert als Folge von Mechanisierung und Verbürgerlichung. Unter agrarisch-feudalen Verhältnissen war eine Emanzipation des geistigen Kapitals jedoch von marginalem sozialen Interesse und politisch wie praktisch nur partiell zu realisieren. Erst mit der Industrialisierung erhielt das Streben der bürgerlichen Intelligenz nach patent- und urheberrechtlichem Schutz ihrer Arbeit gesteigerte soziale Dringlichkeit und wurde im Interesse industriellen Fortschritts gelöst. Im 19. Jahrhundert etablierte sich so ein historisch neuer Begriff identifizierbaren geistigen Privateigentums, abgesichert durch entsprechende gesetzgeberische Maßnahmen, neue Institutionen wie zum Beispiel nationale Patentämter und auch internationale Abkommen.

Die Neuordnung geistigen Eigentums

In seinen Details wurde dieses industrielle Verständnis geprägt von der materiellen Repräsentation intellektuellen Besitzes, seiner mechanischen Reproduktion und realweltlichen Distribution. Die gegenwärtige Ersetzung analoger Technologien durch digitale stellt wesentliche Elemente des damals etablierten industriellen Umgangs mit geistigem Besitz wieder in Frage. Nicht nur fallen mit digitaler Reproduktion und Distribution zunehmend die nöti-gen Kontrollmechanismen aus. Obendrein bremst das überholte System der Eigentumssicherung heute schon digitalen Fortschritt so nachhaltig, wie vor 200 Jahren umgekehrt der Mangel an Eigentumsgarantien die Finanzierung der industriellen Entwicklung hemmte. Free-Software- und Open-Source-Bewegung scheinen insofern einen Ausweg aus den industriellen Verhältnissen aufzuweisen. Auch für die zunehmend wünschenswerte Öffnung des zivilisatorischen Wissens nach ihrem GPL-Vorbild gibt die Frühzeit der Industrialisierung ein historisches Beispiel: die Ver-Öffentlichung der privaten Bibliotheksbestände von Adel und Kirche.

Bücher waren zur Zeit der bürgerlichen Revolution das dominierende Speichermedium für zivilisatorisches Wissen. Sie standen daher im Zentrum des sozialen Machtkampfes. Die um 1800 im großen Maßstab teils konfiszierten, teils aufgekauften Bände wurden in der ersten Hälfte des 19. Jahrhunderts zur materiellen Grundlage einer gänzlich neuen industriellen Organisations- und Distributionsform von Informationen, zentriert um öffentliche und neugegründete nationale Bibliotheken. Der Bestand etwa der Pariser Bibliothèque Nationale, eröffnet 1795, verdoppelte sich durch Zwangsakquisition binnen zwei Jahrzehnten auf über 600 000 Bände. Ähnliches geschah im deutschsprachigen Raum. Die Frühzeit der Industrialisierung sah so die Geburt des modernen, an den staatlichen Bürokratien orientierten Bibliothekswesens mit seinen Signaturen, Standnummern, Magazinen und innovativen Klassifikationen wie etwa Melvil Deweys Dezimalsystem aus dem Jahre 1873.

Historisch notwendig wurde die Entprivatisierung, Ver-Öffentlichung und Umorganisierung des Buchbestandes im 19. Jahrhundert aus ökonomischen Gründen: Die technologische Aufrüstung der Arbeitsprozesse in den Fabriken und noch mehr der Ausbau nationaler Bürokratien zur Verwaltung der industriellen Massen verlangten nach qualifizierteren Arbeitskräften, als sie unter den Bedingungen agrarisch-feudaler Wissensvermittlung in ausreichender Zahl entstanden. Wissen wurde damit von einem Luxus der Oberschichten zu einem existenziellen Überlebensmittel. Der politische Kampf um Volksbildung, die Umwandlung von individueller Bildung in massenhafte Ausbildung begann.

Die Bibliotheken waren zentrale Agenturen dieses Prozesses. Ihre Philosophie war die akademische. Sie unterschied zwischen materiellen Gegenständen, deren Menge begrenzt war und durch Verbrauch im Wert reduziert wurde, weshalb mit ihnen sparsam umzugehen war, und intellektuellem Kapital, dessen Wert sich durch Gebrauch nicht reduzierte, sondern durch Verbreitung sogar wuchs. Öffentliche Bibliotheken stellten die dem Stand der Reproduktionstechniken angemessene Kompromissform dar: Sie machten das in dem begrenzten Vorrat an gedruckten Büchern gespeicherte Wissen einer maximalen Menge von Menschen zugänglich.

Die revolutionäre, mittels juristischer Zwangsmaßnahmen durchgesetzte Ver-Öffentlichung der Buchbestände stellte von daher eine der wichtigsten kulturellen Adaptionsformen an die gewandelten Erfordernisse der Industrialisierung dar. Vergleichbares beginnt sich nun an der Schwelle zur digitalen Epoche zu vollziehen. Erneut wird eine historische Anpassung im Umgang mit dem zivilisatorischen Wissen notwendig. Die Bedeutung der digitalen Infrastruktur wächst. Ihre Nutzung wandelt sich von einem Luxus oder Hobby zur sozialen und ökonomischen conditio sine qua non. Je unverzichtbarer aber Software wird, desto weniger kann der Mangel an Kontrolle durch die Anwender bestehen. Angesichts des akzelerierten Entwicklungstempos wie auch des gewandelten Demokratieverständnisses kommen in der digitalen Epoche freilich hierarchische Bürokratien nicht mehr als Medium einer notwendigen öffentlichen Kontrolle in Frage. Diese Rolle fällt neuartigen beweglicheren, effektiveren und vor allem offeneren Strukturen zu. Für sie bietet die Open-Source-Praxis ein Modell.

Demokratisierung der Arbeit

Den Ansätzen zu einer digitalen Ver-Öffentlichung des zivilisatorischen Wissens, wie sie die GPL leistet, entspricht eine zweite, ebenso historische Open-Source-Innovation: die Ansätze zur Überwindung der industriellen Arbeitsorganisation. Fabrik wie Bürokratie raubten im 19. Jahrhundert den Individuen die Zeitsouveränität, die sie in der agrarischen und handwerklichen Produktion genossen hatten. Deren Abläufe waren nicht auf das quantitative Abarbeiten von Zeit gerichtet gewesen, sondern auf qualitative Aufgabenerfüllung wie Aussaat und Ernte oder die handwerkliche Erledigung von Aufträgen. Erst unter industriellen Bedingungen wurde Arbeitszeit für die Mehrheit der Menschen zur Fremdzeit, zu einem Teil des Tages, an dem physische Anwesenheitspflicht herrscht und erwachsene Bürger durch Anweisungen und Beaufsichtigung systematisch entmündigt werden.

Was Jahrtausende selbstverständlich gewesen war - dass man sich die eigene Arbeit relativ selbstständig nach sachlichen Erfordernissen einteilte -, wandelte sich zum Privileg und blieb die Regel allein in Nischen des hoch qualifizierten Handwerks und künstlerischer oder wissenschaftlicher Tätigkeiten. Die überwiegende Mehrheit der Menschen verrichtete ihr Tagewerk dagegen im 20. Jahrhundert unter dem Zeichen des Taylorismus. Das von Frederick Winslow Taylor entwickelte hierarchische Managementsystem seziert im Interesse einer möglichst ökonomischen Organisation maschinengestützter Produktion die Arbeitsvorgänge und menschlichen Bewegungen. Indem der Taylorismus dem Einzelnen Bewegungsfreiheit und Eigenzeit nimmt, um ihn zum Anhängsel der Maschine und insbesondere des Fließbands zu machen, steigert er die mechanische Effizienz - und vernichtet psychische Motivation und auf Selbstständigkeit basierende Kreativität.

Die industrielle Ordnung der Arbeit machte sie so zur Last - weshalb ihre Verwalter auf eine Vielzahl von Kontroll- und Zwangsmaßnahmen sowie auf eine stete Steigerung der finanziellen Anreize angewiesen waren. Unter analogen Bedingungen ließ sich daran kaum rütteln. Alle utopischen Gegenbewegungen scheiterten an den Sachzwängen industrieller Technologie. Erst mit der Digitalisierung schuf sich die Menschheit die nötigen Voraussetzungen, um das Joch industrieller Arbeit abzuschütteln. Das Linux-Projekt war in den neunziger Jahren dafür wegweisend, indem es die globale Vernetzung nicht länger nur zur Kommunikation, sondern für eine prinzipielle Umorganisation der Arbeit nutzte.

Ausgehend von der Tradition der Anwender-Selbstermächtigung und aufbauend auf den Betriebssystemen und der digitalen Infrastruktur, die freie Software in den siebziger und achtziger Jahren geschaffen hatte, setzte Torvalds gleichsam naturwüchsig abstrakte digitale Werte praktisch um; insbesondere Enthierarchisierung und Dezentralisierung. Ihnen entsprachen die beiden zentralen Praktiken der Rekrutierung von Arbeitskraft auf dem Wege der globalen Selbstselektion und ihr zeitlich selbstbestimmter Einsatz. Nicht die Arbeitsteilung, wohl aber die Arbeitszuteilung wurde aufgehoben. An die Stelle von überwachender Kontrolle trat Eigenverantwortlichkeit in autonomen Teilbereichen.

DigitaleAvantgarde

Darin gibt die Open-Source-Praxis ein Modell sozialer Organisation von Arbeit und speziell Wissensproduktion in der digitalen Epoche. Die Forschung, der das Prinzip des peer review als Medium der Kritik ursprünglich entstammt, kann von dessen Echtzeitbeschleunigung zum Mittel der Erkenntnisproduktion ebenso lernen wie weite Bereiche der Wirtschaft. Der Einsatz digitaler Techniken etwa zum Zwecke von Kollaborationsstrukturen mag es erlauben, auf einengende lineare Planungen zu verzichten, um Selbstselektion und zeitliche Autonomie und damit Motivation und Kreativität zu befördern.

Diese doppelte epochale Anstrengung, die Verfügung der Menschheit über ihr Wissen und die Organisation der gesellschaftlichen Arbeit neu zu ordnen, macht die Open-Source-Praxis in der Tat, wie Steve Johnson schreibt, zur ‘ersten wirklich eingeborenen politischen Schöpfung der digitalen Welt’. In der Unterwerfung des Einzelnen unter den industriellen Apparat war der Taylorismus nicht nur, wie oft bemerkt wurde, Ausdruck einer Maschinenwerdung des Menschen. Er war auch eine durch und durch vordemokratische Organisationsform, in deren System die faschistischen und kommunistischen Diktaturen bereits angelegt waren, die im 20. Jahrhundert in so vielen Ländern den Prozess der Industrialisierung vorantrieben. In der Open-Source-Praxis gleichberechtigter und teilautonomer Kollaboration drücken sich dagegen genuin demokratische Werte aus. Ihre Ermächtigung des Individuums macht tendenziell die Entmündigung rückgängig, die der Industrialismus der Mehrheit der Arbeitenden antat.

Der oft recht unduldsame Enthusiasmus der Open-Source-Fans, der bei einer so prosaischen Angelegenheit wie der Software-Produktion befremdet, die bisweilen penetrante Mischung aus genialem Gestus, religiöser Erweckung und politischem Eifer wird unter dieser Perspektive zwar nicht sozial erträglicher, aber doch historisch verständlich - als Ausdruck des berechtigen Bewusstseins, Teil einer bahnbrechenden Avantgarde zu sein. (odi)

Literatur

[1] Oliver Diedrich: Happy Birthday, Tux! Zehn Jahre Freies Betriebssystem. c't 19/01, S. 162

[2] Gundolf S. Freyermuth: Offene Geheimnisse, Aus der Open-Source-Geschichte lernen, Teil 1. c't 20/01, S. 176. Dort findet sich auch eine Liste der zitierten Literatur.


Kommentare:
Die neue Hackordnung, (duda 22.10.2001 11:34)
Hoffentlich keine Avantgarde (MrNane 13.10.2001 17:18)
Re: Existenzfrage (Thomas Kläger 12.10.2001 10:35)
mehr...

 
  Datenschutzhinweis
Copyright © 2005
Heise Zeitschriften Verlag
     
 Zuletzt aktualisiert von c't-WWW, 04.10.01
     
Seitenanfang