Die Ursache dafür, meint Paul Levinson, liegt wesentlich in der radikalen Differenz zwischen der leidlichen, wenn auch unzulänglichen Kontrolle der Wissenschaftler über den Innovationsprozess selbst und der gänzlich unkontrollierbaren Anwendung der Forschungsergebnisse: “Da sich die Sphäre der Kontrolle, die der Erfinder ausübt, im großen Ganzen nur auf die Verkörperung seiner Intention in der Erfindung selbsterstreckt – nicht auf den Marktplatz der Ideen, die Finanzierung und die Sitten, die betimmen werden, wie seine Erfindung genutzt wird und wie erfolgreich sie bei dieserNutzungsweise menschliche Bedürfnisse erfüllt, produzieren Technologien ebenso tiefgreifende unbeabsichtigte Konsequenzen wie biologische Organismen.“ Diese Parallele zwischen dem menschengemachten technischen Fortschritt und der biologischen Evolution versucht Steven Johnson genauer zu fassen, indem er sie mit der Exaptation vergleicht. Der Begriff bezeichnet den Einsatz körperlicher Fähigkeiten zu anderen Zwecken als jenen, für die sie sich im Prozess der natürlichen Selektion einst durchgesetzt hatten. Exaptation stellt so das Gegenstück zur Adaptation dar, in deren Verlauf sich das biologische Leben veränderten Umweltbedingungen anpasst, indem es neue Fähigkeiten ausbildet. Stephen Jay Gould etwa argumentiert in seinem Aufsatz „Exaptation: A Crucial Tool for Evolutionary Psychology“, dass es sich beim menschlichen Gehirn um das Musterbeispiel einer solchen Exaptation handelt. Spezifische mentale Fähigkeiten, die sich unter den Überlebensbedigungen von Jäger-und Sammlergesellschaften ausbildeten, wurden im Laufe einer Zeitperiode, die für evolutionäre Adaptationsprozesse viel zu kurz war, zur Entwicklung von medialen und technologischen Systemen wie Schrift oder Mathematik exaptiert. Ein ähnlicher Prozess der Umfunktionierung, so Johnson, strukturiert über weite Strecken die Nutzung neuer Technologien.
Gummi beispielsweise, von Charles Goodyear als industrielles Dichtungsmaterial entwickelt, fand seine erste, lange Zeit lukrativste und sozial folgenreichste Verwendung zu Verhütungszwecken. Der Zelluloidfilm, den George Eastman sich1889 für seine Fotokamera patentieren ließ, geriet in Edisons Filmkamera tatsächlich ins Rollen und ermöglichte die Aufnahme laufender Bilder. Im zwanzigsten Jahrhundert lieferten dann Radio und PC zwei schlagende und in der Geschichte ihrer Durchsetzung, wie sie von William Aspray und Martin Campbell-Kelly in Computer: A History of the Information Machine erzählt wird, einander sehr ähnliche Beispiele sozialer Exaptation: Als Guglielmo Marconi 1894 unter Verwendung der von Heinrich Hertz entdeckten elektromagnetischen Wellen ein Signal sendete, mit dem er eine Glocke aus zehn Metern Entfernung zum Läuten bringen konnte, glaubte er, ein Verfahren zu drahtloser Telegrafie udn Telefonie erfunden zu haben. Die ersten Anwendungender neuen Technik um 1900 dienten dann auch militärisch-nachrichtendienstlichen und kommerziell-kommunikativen Zwecken; nach heutigen Begriffen point-to-point- Transfers und dem narrow casting.
Fast zwei Jahrzehnte vergingen, bis schließlich das seitdem dominierende Radio- Sendemodell zur Massenunterhaltung entwickelt wurde; bis also die Erfindungund Etablierung des historisch neuartigen broadcasting gelang. Das entscheidende Bindeglied zwischen beiden Anwendungsphasen der Radiotechnik bildete eine wachsende Zahl begeisterter Bastler, von denen die neue Technik aufgegriffen und zu privaten Zwecken – Mithören militärischer und kommerzieller Kommunikation, persönliche peer-to-peer-Kommunikation – zweckentfremdet wurde. Dank ihrer heimgebauten Privatgeräte bildeten diese Hobbyisten dann das erste Publikum und damit die finanzielle Basis der fast 600 musiksendenden Radiostationen, die allein1921/22 in den USA gegründet wurden und deren Angebot in der Wechselwirkung erst den Massenmarkt für die industriell gefertigte radio music box erzeugte. Recht ähnliche Exaptationsprozesse prägten den unvorhergesehenen Aufstieg des Personal Computers. Mit dem Mikroprozessor – 1969 für den Einsatz in Taschenrechnernentwickelt – stand im Prinzip die Technologie zur Herstellung von PCs zur Verfügung. Doch wie sich einst niemand Heimradios vorzustellen vermochte, so erkannte nun keiner der existierenden Mainframe- und Mikrocomputerhersteller den Bedarf an einem Gerät zur Heimnutzung. In Ermangelung kommerzieller Angebote begannen daher Hobbyisten mit der Zweckentfremdung von Taschenrechner-Mikroprozessoren zum Selbstbau von Billigcomputern. Als Folge der Bastlerbewegung wuchs der Bedarf an unterhaltenden und nützlichen Programmen, die auf diesen Heimgeräten liefen. Erste kleine Software-Firmen schossen aus dem Boden. Deren Rolle für die Durchsetzung des PCs, schreiben Aspray und Campbell-Kelly, entsprach derjenigen, die einst die Radiostationen für die Durchsetzung des Heimradios gespielt hatten: Ihre Kunden waren anfangs die Hobbyisten.
Sobald das Angebot an Programmen jedoch leidlich entwickelt war, weckte es Interesse auch außerhalb der Bastlerkreise und damit das Bedürfnis nach vorbereiteten Bausätzen (Altair, 1974) und fertigmontierten Produkten. In der zweiten Hälfte des Jahrzehnts kamen so Computer auf den Markt, die sich an normale Konsumenten wendeten (Apple II, 1977). 1981 fertigte dann auch IBM einen PC und legitimierte damit das bisherige Hobbygerät in den Augen der Geschäftswelt wie vieler Konsumenten. Der Absatz übertraf alle Erwartungen. Als 1983 mit weltweit 5,5 Millionen PCs eine kritische Masse erreicht war, kürte Time den Personal Computer gar zur „machine of the year“.
> Teil 5 Phase 3: Schöpferische Zerstörung Das Prinzip Zufall.
In: C’T – MAGAZIN FÜR COMPUTERTECHNIK, 5. Mai 2001, S. 246- 251.
Autor: Gundolf S. Freyermuth, freyermuth.com
Schlagwörter:Kontrolle, Prinzip, Zufall