Dienstag, Oktober 16

Wir Menschen unterscheiden uns zu unseren tierischen Vorfahren vor allem in der Fähigkeit der Prognose, dem Vorausdenken von Prozessen und Vorgängen. Wir können uns den morgigen Tag und den Tag darauf und sogar eine ganze, mögliche Zukunft vorstellen. Tiere können das nicht, Tiere haben keine langfristige Vorstellung vom Morgen. Allerdings sind die Fähigkeiten für das prognostische Denken des Menschen nicht unbegrenzt: Während wir mit einer linearen Steigerung eines Prozesses gedanklich ganz gut klar kommen, versagen wir kläglich wenn sich etwas exponentiell beschleunigt. Daraus entstehen mitunter bizarre und bisweilen fatale Fehleinschätzungen von zukünftigen Veränderungen und Innovationen. Ein schönes Beispiel für eine solche Fehleinschätzung erzählt uns die Geschichte der Entschlüsselung des menschlichen Genpools, die in den Siebziger Jahren begann und deutlich früher ‚aufhörte’ als vermutet.

—————————–

—————————–

Zünden der Wissensexplosion: Was wir aus der Genforschung lernen können

1977 entwickelte Frederick Sanger einen hochkomplexen Prozess um aus einer Zellsubstanz, bzw. aus einem Zellkern DNA Segmente zu extrahieren. Dabei wurden spezielle Enzyme eingesetzt, die bestimmte Stücke aus der Helix eines Chromosoms herausschnitten und radioaktive Marker, die sich an die nun freien Enden der Basenpaare setzen konnten, um die Abfolge der Basenpaare sichtbar zu machen. 1980 erhielt er zu Recht den Nobelpreis für diese Entdeckung. Erst 1983, also bereits 13 Jahre nach der Entdeckung, gelang es mit der polymerase-chain extraction (PCR) Milliarden von Kopien eines definierten DANN Strangs herzustellen. Dies war eine Voraussetzung dafür, eine sichere Analyse einer DNA Sequenz durchzuführen. Bereits 1984 fassten das U.S. Department of Energy (DOE), National Institutes of Health (NIH) und einige internationale Partner den Plan, endlich das gesamte menschliche Genom zu kartographieren. Eine Mammutaufgabe, wie es schien, die sorgfältig vorbereitet sein wollte und so dauerte es noch bis 1990, bis der Startschuss für das vermeintliche Jahrhundertprojekt gegeben wurde.

—————————–

—————————–

—————————–

—————————–

Ab diesem Punkt vergingen weitere 5 Jahre bis das komplette, aber vergleichsweise „kleine“ Genom eines Grippe-Virus entschlüsselt werden konnte. Eine unglaublich lange Zeit für verhältnismäßig wenig Information. Damalige Schätzungen gingen daher auch davon aus, dass die Milliarden Basenpaare des menschlichen Genoms erst nach 50 Jahren erfasst werden würden.

—————————–

—————————–

Wenn aus dem ‘Übermorgen’ plötzlich ‘Heute’ wird

Die Vorstellung einer linearen, also gleichbleibend steigenden technologische Entwicklung war allgegenwärtig, auch bei Forschern, die es hätten besser wissen müssen.

Aber dann kam der Big Bang!

1998 wurde eine private Firma namens Celera Genomics ins Boot geholt dessen Gründer Craig Venter gleich mit mehreren innovativen Konzepten eine deutliche Beschleunigung des Sequenzing Verfahrens vorschlug. Celera Genomics war nichts anderes als ein Start-up, dass über den Tellerrand schauen konnte und keine Scheu davor hatte auch unorthodoxe Methoden einzusetzen, u. a. war es das erste Unternehmen das Analyse-Algorithmen auf so etwas wie eine ‘collaborative Cloud’ auslagerten. Sie nutzen einfach überschüssige Rechnerkapazitäten von Computer-Netzwerken – damals noch eine relativ neue Erfindung. Es war ein überaus revolutionäres Konzept.

Ein Jahr später, also 1999 galt dann schon Chromosom 22 als ausgewertet und komplett entschlüsselt. Noch etwas mehr Daten als dieses eine Chromosom hatte allerdings die Fruchtfliege, deren komplettes Genom im Jahr 2000 bekannt war. Auch jetzt waren noch Einige überzeugt, dass es weitere Jahrzehnte dauern würde, bis nun ALLE Chromosomen des Menschen offengelegt sein würden. Aber das Wunder exponentieller Entwicklung schlug zu! Denn in Wahrheit musste man noch nicht einmal ein weiteres Jahr warten, bis ein Draft des GESAMTEN menschlichen Genoms vorlag und nur 2 weitere Jahre (bis 2003) bis dieses auch noch valide verifiziert wurde, ganze 3 Jahrzehnte vor dem prognostizierten Verlauf!

—————————–

—————————–

Parallele technologische Entwicklungen beschleunigen Innovation

Auffällig an diesem Beispiel ist, dass die Entwicklung verschiedenster Technologien einen großen Anteil an der Beschleunigung der Grundidee hatten. Die Weiterentwicklung von IT-Netzwerken und Infrastrukturen hatte zunächst keinerlei Verbindung zur Technologie der Gen-Sequenzierung. Durch den Einsatz von Analysetools, verteilt auf eine Cloud änderte sich dieser Zustand dramatisch. Ein Learning daraus ist, dass scheinbar nicht zusammengehörende Technologien einander befruchten und Innovationen beschleunigen können – es kommt zu einer Explosion an völlig neuen, disruptiven Ideen, die alles bisher dagewesene auf den Kopf stellen.

Die Digitalisierung spielt selbstverständlich die größte Rolle in diesen Abläufen. Daher ist es wenig verwunderlich, dass wir uns die Entwicklung digitaler Basistechnologien betrachten müssen, um zu verstehen, welchen Impact die parallele Entwicklung der IT auf alle anderen Geschäftsmodelle und Produktinnovationen hat.

—————————–

—————————–

—————————–

—————————–

Generell dient uns Moores Law als Indikator für das exponentielle Wachstum von Technologie. Moore konstatierte 1965, dass sich die Anzahl integrierter Schaltkreiskomponenten alle 2 Jahre verdoppelt. Tatsächlich hat sich diese These bislang nicht widerlegen lassen und glaubt man Ray Kurzweil, Autor des Buches „The Singularity is near: When Humans Transcend Biology“ so hat ein einziger Computer in 2 Jahren die Fähigkeit die Rechengeschwindigkeit- und Power eines Nagetiergehirns zu erreichen um schließlich im Jahr 2026 etwa die Rechenpower eines menschlichen Gehirn zu toppen. Seiner Prognose nach würde gegen 2060 gar die zeitgleiche Rechengeschwindigkeit aller Individuen der gesamten Menschheit von nur einem einzigen Computer erreicht. Ein Ende von Moores Law wurde immer wieder von physikalischen Gesetzmäßigkeiten konstatiert. Zum einen nahm man an, dass die Miniaturisierung von Schaltkreisen durch quantenphysikalische Prozesse Einhalt geboten würde, zum anderen durch den ebenfalls expontentiellen Anstieg des Energieverbrauchs eines Prozessors (Eine Simulation des Gehirns würde nach Maßstäben der Neunziger Jahre die Energie eines Atomkraftwerks verbrauchen). Beide Thesen lassen sich aber nicht halten, denn zum einen werden gerade durch die Nutzung von Quanteneffekten neue Möglichkeiten offenbart (Stichwort Quantencomputing) und zum anderen wurden durch eben diese Möglichkeiten auch energieeffiziente Prozessoren denkbar.

Dass wir jetzt schon mit einem Smartphone einen IBM Großrechner aus dem Jahre 1977 in der Westentasche haben sei nur nebenbei erwähnt. Der Unterschied zum Großrechner von damals zu heute ist allerdings der unbegrenzte, weltweite Zugang zu einem gigantischen Datennetz namens „Internet“. Diese sagenhaft schnelle Entwicklung wird von uns nach wie vor nur als lineare Bewegung wahrgenommen. Doch selbst diese vermeintliche Linearität verleitet es uns noch zu dem Gedanken, man möge doch mal die Welt für einen kurzen Moment anhalten. “Das geht uns zu schnell!” Dabei wird es ab jetzt nicht besser sondern schlimmer. Viel schlimmer!

—————————–

—————————–

Angst vor der Geschwindigkeit? Es wird sogar noch schlimmer!

Exponentielle Prozesse in exponentiellen Geschwindigkeiten sind nichts anderes als Kernschmelzen, Atombomben oder Kernfusionen, also Entwicklungen die mit jeder Millisekunde ihr explosives Potential so lange verdoppeln bis das Brennmaterial erschöpft ist. Wenn sich Rechnerkapazität in dieser Form so entwickelt, dann entwickelt sich Innovation ebenfalls exponentiell.

Eine Produkt-Innovation ohne eine Form von digitaler Unterstützung ist heutzutage undenkbar, ob wir nun eine Finanzdienstleistungs-App entwickeln, einen neuen Teddybären designen oder eine neue Wurstsorte auf den Markt bringen wollen, nichts geht ohne digitale Technologie. Anders ausgedrückt: Jede denkbare Form von Veränderung und Innovation, sei es durch Startups getriggert, von Entrepreneuren aus dem Silikon-Valley initiiert oder in Konzernen angestoßen verläuft vielleicht nicht sofort exponentiell, aber sie verläuft in einem sich exponentiell verändernden Innovations-System und kann so in jeder Sekunde durch eine bessere Alternative ersetzt werden.  Wir handeln und reagieren lediglich linear auf eine Entwicklung die exponentiell verläuft. Eine fatale Fehleinschätzung!

—————————–

—————————–

Kopf in den Sand oder Handeln?

Die traditionellen Inovationsprozesse, gerade die in Konzernen, sind maximal auf lineare Entwicklung ausgelegt. Mit einem klassischen Stage-Gate-Prozess kommt man aber hier nicht mehr weiter. Konzerne – insbesondere deutsche Unternehmen – müssen jetzt handeln, um nicht in der Kernschmelze der Ideen zu verglühen. Folgende Innovations-Strategien setzen smarte Unternehmen dagegen:

a) Innovation in Form von Startups gezielt fördern oder gleich kaufen. Aus den Silos der Konzerne sind allenfalls Optimierungen zu erwarten, aber keine disruptiven Innovationen

b) Corporate-Startup Prozesse in Gang setzen, gezielt mit den Mechanismen exponentieller Innovation arbeiten. Über technologische Grenzen hinweg denken und viele, schnelle Ideen in maximaler Kürze verproben

c) Ergebnissoffene Entrepreneurprogramme aufsetzen und konsequent in den obersten Führungsgremien laufen lassen. Nicht in den Angstregionen mittlerer Führungsetagen verhungern lassen

Natürlich ist es immer leicht “alarmiert” herumzulaufen und “DAS ENDE IST NAHE!” zu rufen und ich möchte nicht in diesem Chor mitsingen. Aber es ist an der Zeit, sich von der linearen Vorstellung von Innovationszyklen zu verabschieden. Wir müssen uns bewegen, wir müssen schneller, agiler und gleichzeitig besser werden. Und ganz besonders müssen wir uns von den langwierigen Innovationsprozessen der Konzerne verabschieden und das Startup-Feeling zurück ins Unternehmen bringen. Machen Sie mit!

Ach übrigens: Vor wenigen Tagen gab die Firma Oxford Nanopore Technologies bekannt, dass man einen winzigen Gensequenzer für unter 1.000 Dollar erwerben kann, der 70.000 Basenpaare in nur wenigen Stunden entschlüsseln kann. Die komplette Analyse eines Bakteriums ist damit in wenigen Tagen mit Hilfe eines USB-Sticks erledigt.

 

Zum weiterlesen verweise ich auf unseren spannenden Artikel Exponentielles Wachstum: Der geheime Schatten der Innovation

 

Bildnachweis: Fotolia, Ray Kurzweil, Oxford Nanopore Technologies

About Author

Matthias Henrici entwickelt seit Ende der neunziger Jahre wertschöpfende eCommerce-Projekte u.a. für deutsche als auch internationale Unternehmen. Seit 14 Jahren lehrt er als Dozent für Usability und Neuro-Marketing an deutschen Hochschulen und arbeitet als Conversion-Spezialist und Projektmanager für Safari sowie als freier Autor u.a. für den HighText Verlag, Computerwoche und die Wirtschaftspresse.