60 Jahre CLB

 
 

Kurz bevor die CLB im Jahre 2001 zu unserem Verlag kam, hatte sie gerade ein Jubiläum gefeiert, das 50. Fast war ich ein bischen traurig darüber, denn das bedeutete, neun Jahre zu warten, ehe wieder eine runde Zahl zum Feiern anstand – und wer feiert nicht gerne :)

Blättere ich in den 103 Heften (108 Ausgaben incl. dieser und incl. Doppelnummern), die wir mittlerweile produziert haben, erscheint mir Vieles, als hätten wir erst gestern daran gearbeitet. Die Zeit verging rasend schnell – und doch ist viel geschehen (siehe rechte Seite). Immerhin kann ich auf Arbeiten des 50. Jubiläums zurückgreifen: Die CLB-Geschichte von Anfang an, die wir hier als Nachdruck liefern. Der genaue Titel der Zeitschrift zum Start 1950 war übrigens: „Chemie – Die verständliche Zeitschrift für Labor und Betrieb“. Verständlichkeit schien damals für manche ein zu niedriges Niveau zu bedeuten. Von daher wandte sich Dr. Wilhelm Foerst, der die Idee zur CLB hatte und damals Herausgeber der renommierten „Ullmanns Encyklopädie der technischen Chemie“ beim Verlag Chemie war, an den Frankfurter Umschau-Verlag.

Diese Grundidee der Verständlichkeit und Übersichtlichkeit in den komplexen Feldern von Chemie und anderen Molekül-orientierten Wissenschaften und Techniken will ich beständig verfolgen, auf dass die CLB weiter gern gelesen wird und nochmals Grund zum Feiern haben möge. 


10 Jahre CLB – nach den ersten 50 Jahren...

Was vor 60 Jahren niemand ahnte – und vor 10 Jahren unbezahlbar war


Der CLB-Chefredakteur Jürgen Wagner, der die Jubiläumsausgabe im Jahr 2000 verantwortete, ermittelte in einer Umfrage die acht wichtigsten Fortschritte und Entwicklungen, die in Chemie und Biotechnik seit den 1950er Jahren gemacht wurden (siehe Umschlagseite 3). Lässt man die letzten zehn Jahre Revue passieren, erkennt man eine Reihe von Forschungen, Entwicklungen und Techniken, die jenen aus 50 Jahren Rückschau zumindest ebenbürtig sind.

Zu den Top 8 zählte damals die Desoxyribonukleinsäure, und zwar die Entdeckung ihrer Struktur im Jahre 1953 durch Crick und Watson, zweifelsfrei eine richtige Wahl.

Human Genome Project

Die DNA zählt auch heute wiederum zu den herausragenden Themen der letzten zehn Jahre: 1990 wurde das Human Genome Project (Hugo) gegründet. Daran nahmen zu Beginn über 1000 Wissenschaftler in 40 Ländern teil. Ziel war die Sequenzierung des menschlichen Genoms bis 2010. Und wie lief es? Im Jahr 1998 gab Craig Venter bekannt, er wolle das gesamte menschliche Genom schneller und billiger entschlüsseln als das Humangenomprojekt. 2001 wurde dann unabhängig von beiden Forschungsunternehmungen die vollständige Sequenzierung des menschlichen Genoms verkündet; seit April 2003 gilt das menschliche Genom offiziell als vollständig entschlüsselt. Die US-Firma Illumina bietet heute das Ablesen der persönlichen DNA-Bausteine innerhalb von Wochen für rund 35 000 Euro an. Man schätzt, der Preis dafür liegt in wenigen Jahren bei unter 1000 Euro. Hugo verschlang 300 Millionen Dollar...

Eine der Top 8-Entwicklungen vor zehn Jahren hieß „Kombinatorische Chemie“. Sie hat sich mittlerweile als Standard-Screeningmethode etabliert, wurde weitgehend automatisiert und roboterisiert. Heutzutage geht man in der Zusammenstellung von Chemiebausteinen aber Schritte, die sogar zur Definition neuer ethischer Handlungsmaximen herausfordern. Ich meine damit die synthetische Biologie.

Synthetische Biologie

Ziel der synthetischen Biologie ist es, komplette künstliche biologische Systeme zu erzeugen. Zwar veröffentlichte der Franzose Stéphane Leduc bereits 1912 eine Arbeit mit dem Thema „La Biologie Synthétique“. Der Franzose wollte aus physikalischen und chemischen Gegebenheiten heraus die Entstehung des Lebens erklären, driftete dann aber ins Mystische ab. Erst 2000 bezeichnete der Stanford-Chemieprofessor Eric Kool auf dem Jahrestreffen der American Chemical Society in San Francisco die Einbeziehung künstlicher chemischer Systeme die Betrachtung von Lebensvorgängen als „Synthetische Biologie“ und etablierte damit das heutige Verständnis dieses Begriffs. Im Januar 2008 berichtete eine Forschergruppe um Craig Venter, es sei erstmals gelungen, das Erbmaterial eines Bakteriums komplett synthetisch herzustellen. Schon 2003 gelang Craig Venter zusammen mit Hamilton O. Smith die Komplettsynthese des Bakteriophagen PhiX174 mit 5386 Basenpaaren. Ein Jahr zuvor synthetisierten Eckard Wimmer, J. Cello und A.V. Paul das 7500 Basenpaare große Genom des Poliovirus (siehe CLB 01/02-2009, Seiten ab M2, sowie auch CLB 01-2003 und 02-2003 die Artikel von Dr. Röbbe Wünschiers über das kleinste Genom).

Systembiologie

Zur synthetischen Biologie gesellt sich die Systembiologie. Der Durchbruch für die Systembiologie kam um die Jahrtausendwende durch die Entwicklung von Hochdurchsatztechnologien zur Messung von Genexpression, Proteinexpression und Protein-Protein Interaktion auf molekularem Level und dem Abschluss des Humangenomprojekts. Die Flut der dabei erhaltenen Daten für etwa drei Milliarden Basenpaare und über eine Million Proteine pro Zelle macht es unmöglich, alle theoretisch denkbaren und interessierenden Experimente im Labor durchzuführen. Deshalb ist die Modellierung am Computer zur Voraussetzung für die Auswahl der erfolgversprechendsten Ansätze geworden. Diese CLB enthält in dem Artikel über Mikroalgen am Beispiel der Entschlüsselung des Photosynthese-Katalysatorprozesses ein aktuelles Beispiel systembiologischer Forschung.

Frequenzkammgeneratoren

Vor zehn Jahren wurden das Rastertunnelmikroskop und der Laser gleichermaßen als bedeutsame Erfindungen seit 1950 genannt. Nun gibt es ebenfalls Fortsetzungen bei den Erfindungen für feinste Messungen und besseres „Kleinsehen“. Diese liegen zum einen in Frequenzkammgeneratoren, 1998 von Theodor Hänsch in München erfunden und 2005 mit dem Nobelpreis ausgezeichnet. Der Frequenzkammgenerator erzeugt einen Lichtstrahl, mit dem sich die Schwingungsfrequenz eines anderen Lichtstrahls um fünf Größenordnungen genauer als mit den bis dahin bekannten Methoden bestimmen lässt. Das Herzstück ist ein Laser, der Lichtwellen von sehr genau bekannter Frequenz liefert, die mit dem zu vermessenden Lichtstrahl interferieren. Die Idee: Es bildet sich ein Interferenzmuster mit einer Frequenz im Radiobereich, eine Schwebung, die sich sehr viel einfacher vermessen lässt. Mögliche Anwendungen u.a.: billigerer und genauerer Ersatz für Atomuhren; höchst empfindliche chemische Detektoren; Verbesserung der Möglichkeiten der „Designer-Chemie“ im Bereich ultrakalter chemischer Reaktionen.

STED-Mikroskop

Bei den Mikroskopen („Kleinsehern“) hat Stefan Hell in Göttingen eine erstaunliche Entwicklung gemacht. Ihm ist die Lichtmikroskopie unterhalb einer Auflösung gelungen, die von der Beugungsgrenze definiert wird. Sein STED-Mikroskop (für Stimulated Emission Depletion) erreicht eine bessere Auflösung, indem sichergestellt wird, dass das Licht aus einem Bereich der Probe kommt, der kleiner als die optische Auflösung ist. Das geschieht, indem nach Anregung (An, rot im Bild) gezielt die angeregte Stelle mit einem zweiten Lichtstrahl (Aus, blau im Bild) abgeregt wird. Dieser zweite Lichtstrahl wird mit einer Intensitätsverteilung versehen, die in der Mitte des Strahls Null ist. An dieser Stelle findet daher keine stimulierte Emission statt (schwarz im Bild). Die Intensität des anregenden und abregenden Strahls wird so eingestellt, dass der Bereich, in dem keine stimulierte Emission stattfindet, kleiner ist als das optische Auflösungsvermögen.

Lithium-Ionen-Akkus

Zu meinen Top-Favoriten von Entwicklungen der Chemie, die erst in den vergangenen zehn Jahren zur Geltung gekommen sind, gehören auch Lithium-Ionen-Akkumulatoren. Ohne sie gäbe es keine leistungsfähigen MP3-Spieler, Laptops – und kaum Hoffnung auf alltagstaugliche Elektrofahrzeuge.

Die Entwicklung wiederaufladbarer Lithium-Batterien wurde Ende der 70er Jahre mit der Entdeckung möglich, daß eine Reihe von Oxiden bei nur geringen Volumenänderungen Lithium-Ionen in ihr Schichtgitter einlagern, ohne daß eine echte chemische Bindung ausgebildet wird. Anstrengungen zur Kommerzialisierung wiederaufladbarer Batterien oder Akkus folgten in den Jahren nach 1980. Dies blieb allerdings aufgrund der Sicherheitsprobleme mit der latenten Explosionsgefahr anfangs erfolglos. Der erste Lithium-Ionen-Akkumulator wurde erst um 1995 auf den Markt gebracht. Seit 1999 gibt es Lithium-Polymer-Akkumulatoren. Im März 2009 wurde eine Weiterentwicklung der Lithium-Ionen-Akkus durch die beiden MIT-Forscher Byoungwoo Kang und Gerbrand Ceder veröffentlicht, die sowohl die Lade- als auch die Entladegeschwindigkeit drastisch  erhöht, auf zehn Sekunden statt sechs Minuten für einen kleinen Test-Akku. Man darf gespannt sein...

Magnetresonanztomographie

Selbstredend sind auch die Entwicklungen von Biosensoren, der Polymerase Chain Reaction (PCR), der Kapillarelektrophorese und der HPLC in den vergangenen zehn Jahren fortgeführt worden – allesamt als besonders wichtig in der Rückschau des Artikels aus dem Jahre 2000 ausgezeichnet. Eine Entwicklung jedoch, die in besonderem Maße das Ineinandergreifen von Technik, Algorithmen, Biochemie, Physiologie, Medizin und Ethik aufzeigt, hat auch gerade im vergangenen Jahrzehnt einen Siegeszug quer durch die Lebenswissenschaften angetreten: die Magnetresonanztomographie (MRT; siehe dazu auch CLB 05/2009, Seiten M26 - M31). Dies hat auch seinen Grund: Zwar wurde die MRT als bildgebende Kernresonanzspektroskopie ab 1973 vor allem von Paul C. Lauterbur mit wesentlichen Beiträgen von Sir Peter Mansfield entwickelt. Sie erhielten dafür 2003 gemeinsam den Nobelpreis für Medizin.

1985 jedoch gelang Jens Frahm und Axel Haase in Göttingen mit der Erfindung des Schnellbild-Verfahrens FLASH (fast low angle shot) ein grundsätzlicher Durchbruch in der MRT. Die FLASH-Technik reduzierte die damaligen Messzeiten um bis zu zwei Größenordnungen (Faktor 100) ohne substantielle Verluste an Bildqualität. Das Verfahren ermöglicht zudem sequentielle Messungen sowie völlig neue klinische Untersuchungen, etwa dynamische Aufnahmen von mit dem EKG synchronisierten Herzfilmen, bis hin zu funktionellen Kartierungen des Kortex mit besonders hoher Auflösung.

Brain-Computer-Interface

Wo wir schon bei medizinisch-technischen Themen sind: Was sich auch erst in den vergangenen zehn Jahren abzeichnete – und was immer noch intensiv erforscht wird – sind Nerven-Computer- bzw. Gehirn-Computer-Schnittstellen (siehe dazu CLB 11/12-2007, Seiten 427 - 439: Vom Hebel zum Gedankenimpuls). Therapeutisch wird die Technik bereits bei der Behandlung von Parkinson-Patienten eingesetzt. Es gibt mittlerweile zehntausende Menschen mit elektronischen Implantaten im Innenohr (Cochleaimplantate); im vergangenen Jahr testete man erstmals beim Menschen ein Retina-Implantat, und es gibt Prothesensteuerungen, die Nerven- oder auch Gehirnsignale auswerten. Dieser Bereich moderner Forschung und Entwicklung hat gute Chancen, in zehn Jahren wieder auf den ersten Plätzen wichtigster Errungenschaften zu stehen, die auch mit Fortschritten molekularer Wissenschaften in Verbindung stehen, man denke hier etwa nur an die Austauschprozesse zwischen Nerven und Elektroden.

Metamaterialien

Ein anderer heißer Kandidat für bahnbrechende Entwicklungen der letzten zehn Jahre, die auch in den nächsten zehn Jahren von sich reden machen werden, sind Metamaterialien. Sie wurden 1967 von Viktor Veselago aus Moskau erstmals theoretisch vorhergesagt.

Metamaterialien sind synthetische Objekte mit einem periodischen Aufbau, deren elektromagnetisches Verhalten von ihrer Strukturierung abhängt. Sie besitzen neuartige elektromagnetische Eigenschaften. So wird ihre Struktur in einer Weise maßgeschneidert, dass ihr Brechungsindex in bestimmten Bereichen des elektromagnetischen Spektrums auf fast beliebige Werte eingestellt werden kann. Ihre Gitterkonstante ist erheblich kleiner als die Wellenlänge der elektromagnetischen Strahlung, mit der sie eine Wechselwirkung eingehen. Ihr besonderes Kennzeichen: Metamaterialien ermöglichen die Erzeugung negativer Brechungsindizes.

Als es Forschern um David Smith in San Diego in Zusammenarbeit mit John Pendry, London, 2000 erstmals gelang, ein Material herzustellen, das bei Mikrowellen diese faszinierenden optischen Eigenschaften zeigte, war das eine Sensation. 2007 gelang es dann Forschern um Martin Wegener, Karlsruhe, das weltweit erste Metamaterial im optischen Bereich herzustellen.

Mögliche Anwendungen von Metamaterialien liegen in Antennenoptimierungen, besseren Strahlfokussierungen bei MRTs, „Superlinsen“ für optische Lithographie und Datenspeicherung, die Grenzen der Lichtbeugung überwinden, bis hin zu Tarnkappentechnologien.

Kohlenstoff-Nanoröhren

Aktuell bedeutend für die Technologie sind auch Kohlenstoff-Nanoröhren. Ihre Entwicklung hat in den vergangenen zehn Jahren einen raketenhaften Aufschwung genommen, der auch noch nicht zu Ende ist. Kohlenstoff-Nanoröhren (CNT, carbon nano tubes) leiten sich in ihrer Entwicklung von den Fullerenen ab. Die erste Veröffentlichung zu Fullerenen erfolgte im November 1985. Dafür bekamen Robert F. Curl jr. (USA), Sir Harold W. Kroto (England) und Richard E. Smalley (USA) 1996 den Nobelpreis für Chemie.

CNTs gehören zu der Familie der Fullerene. Die Kohlenstoff-Röhrchen besitzen einen Durchmesser von 1 bis einigen 100 Nanometer.

Mehrwandige Kohlenstoffnanoröhren wurden 1991 von dem Japaner Sumio Iijima mit einem Elektronenmikroskop zufällig entdeckt. Er hatte eine Lichtbogenentladung zwischen Kohlenstoffelektroden erzeugt. 1993 wurden einwandige Kohlenstoffnanoröhren entdeckt.

CNTs finden ihre Anwendung bereits in Sportartikeln wie Tennischlägern oder Golfschlägern: Sie haben rechnerisch ein ca. 135-mal besseres Verhältnis von Zugfestigkeit zu Dichte als für Stahl. Herausragend sind auch ihre elektrische sowie ihre Stromleitfähigkeit. Mit ihnen macht man beispielsweise Antistatikfolien leitfähig. Im Mikroprozessorbereich gelten sie als künftige Schaltelemente. Bayer hat gerade eine 200 Jahrestonnen-Anlage eröffnet (siehe Firmenmeldungen nächste Seite).

Graphene

Wo wir gerade schon beim Kohlenstoff sind: Strikt zweidimensionale Strukturen sollten thermodynamisch nicht stabil sein können. Daher war es umso erstaunlicher, als der russisch-britische Physiker Kostya Novoselov 2004 die Präparation von freistehenden Graphenkristallen bekannt gab. Bei Graphenen sind die Kohlenstoffatome in einer hexagonalen Honigwaben-Struktur angeordnet. Diese Anordnung resultiert aus der Hybridisierung der 2s-, 2px- und 2py-Orbitale der beteiligten Kohlenstoffatome zu sogenannten sp2-Hybridorbitalen, welche plane σ-Bindungen zu drei weiteren C-Atomen ausbilden. Die Honigwaben-Struktur ergibt sich aus den Bindungswinkeln 120 Grad. Die übriggebliebenen 2pz-Orbitale stehen senkrecht zur Graphenebene und bilden ein delokalisiertes π-Bindungssystem aus.

Mögliche Anwendungen bauen auf die ungewöhnlichen Eigenschaften von Graphenen. Wissenschaftler der New Yorker Columbia University veröffentlichten 2008 Messergebnisse, nach denen Graphen die höchste Reißfestigkeit aufweisen, die je ermittelt wurde. Elektrischen Strom leitet Graphen bei Raumtemperatur schneller als jeder andere Stoff, weil sich die Elektronen darin fast mit Lichtgeschwindigkeit bewegen. So kann es sogar zum Nachweis exotischer Quantenphänomene dienen, die sonst nur unter extremen Bedingungen beobachtbar wären. Ein Preis unterstreicht die Bedeutung der Graphenforschung: 2009 ging der mit 750 000 Euro dotierte Körber-Preis für die Europäische Wissenschaft an den Begründer der Graphen-Forschung, den niederländischen Physiker Andre Geim.

...und noch viel mehr...

Der CLB werden also auch in Zukunft die Themen nicht ausgehen. Vieles Interessante konnte in diesem kurzen Artikel ja auch nicht angesprochen werden, man denke nur an Metal Organic Frameworks, Stammzellentherapie, Katalysatorforschung, Solartechnologie, Plasmatechnologie, ionische Flüssigkeiten, etc. Im Rahmen einer an molekularen Forschungen und Entwicklungen ausgerichteten Zeitschrift habe ich die Informations- und Kommunikationstechnologien hier ebenfalls nur indirekt genannt. Sie stellt allerdings die Klammer dar, die viele der aktuellen Forschungen verbindet. 

Autor: Rolf Kickuth