Artikel in Kategorie: Dual

Zur Effizienzsteigerung durch organische Halbleiter

 

Mit OLED-Display auf Partnersuche?


Unser Leben wird mehr und mehr durch die Elektronik bestimmt: Elektronische Bauelemente dienen uns zum Kommunizieren, zum Ordnen von Informationen, sie erzeugen Licht und Strom und erfüllen noch viele weitere Funktionen. Diese Elektronik ist weitgehend auf kristallinen Halbleitern aufgebaut und meistens wird Silizium verwendet. Kristallin bedeutet, dass das Silizium als Kristall mit ideal angeordneten Atomen realisiert wird. Dadurch hat es hervorragende Eigenschaften, ist aber gleichzeitig spröde und stellt hohe Anforderungen an die Reinheit. Viele neue Anwendungen brauchen jedoch Materialien, die leicht in dünnen Schichten auf verschiedenen Oberflächen wie Folien, Metallen oder Stoff abgeschieden werden können. Solche Anwendungen sind mit den klassischen Halbleitern wie Silizium nicht möglich, da die Abscheidung auf solchen Substraten auf großen Flächen zu teuer ist.

Organische Halbleiter dagegen können diese neuartige Elektronik ermöglichen: Organisch steht für Kohlenwasserstoffverbindungen, also Verbindungen aus Elementen, die in der Natur quasi unerschöpflich vorkommen. Ein entscheidender Vorteil von Halbleitern ist, dass die elektrischen Eigenschaften – im Gegensatz zu Metallen – gesteuert werden können. Dadurch sind Bauelemente wie Transistoren überhaupt erst möglich. Zum anderen sind halbleitende Substanzen auch Basis von Dioden-Bauelementen, wie z.B. Leuchtdioden oder Solarzellen.

Die organischen Halbleiter haben in den letzten Jahren einen großen Aufschwung erlebt, weil es endlich gelang, effiziente Bauelemente aus dünnen Schichten zu realisieren. Auf ein transparentes Substrat wird eine transparente Elektrode aufgebracht, also ein Material, das Strom leitet und gleichzeitig transparent ist. Solche Materialien kommen z. B. in Wärmeschutzscheiben zur Anwendung. Darauf wird dann eine sehr dünne organische Schichtfolge – circa 100 Nanometer =
1/10 000mm – abgeschieden, die von einer metallischen Elektrode komplettiert wird. Legt man eine Spannung zwischen metallischer und transparenter Elektrode an, emittiert das Bauelement durch die transparenten Schichten Licht.

Die Bauelemente sind zwar von ihrer Lichtemission sehr vorteilhaft, da sie ein flächiges weiches Licht mit hoher Lichtqualität emittieren, aber sinnvoll einsetzbar sind diese Bauelemente nur, wenn sie sie auch mit hoher Effizienz für elektrische Leistungen in Licht umsetzen. Ein wesentlicher Aspekt der Effizienzsteigerung unserer Arbeiten war daher, die Leitfähigkeit der organischen Materialien deutlich zu steigern: Damit werden Verluste durch den Widerstand in den Schichten vermieden und es wird möglich, die Bauelemente fast auf jedem Substrat oder mit jeder Elektrode zu realisieren.


Flexible OLED © Fraunhofer COMEDD

Ein Ansatz, die Leitfähigkeit eines Halbleiters zu steigern, ist die sogenannte Dotierung, die in den anorganischen Halbleitern seit Jahrzehnten bekannt ist: Den halbleitenden Materialien wird in sehr kleiner Konzentration ein Material beigemischt, das bewegliche Ladungsträger erzeugt. In den organischen Halbleitern war dieses Prinzip bis vor wenigen Jahren zwar prinzipiell bekannt, wurde aber als wenig effizient und für Bauelemente eher schädlich eingeschätzt. Durch die Arbeiten zur Dotierung organischer Halbleiter gelang es uns zu zeigen, dass auch organische Schichten effizient dotiert werden können und dass die Effizienz von organischen Bauelementen wie OLED und Solarzellen so deutlich gesteigert werden kann.

In den letzten Jahren mündete diese neue Dotierungsart organischer Halbleiter in sehr effiziente Bauelemente wie z. B. organische Leuchtdioden, die die herkömmlichen Leuchtstoffröhren an Effizienz deutlich übertreffen.

Dieser Artikel ist in ähnlicher Form im FAZ-Magazin „Verantwortung Zukunft“ erschienen.


In der Welt der Chemie wissen wir ziemlich genau, was warum mit wem eine Bindung eingeht. Das wüssten wir auch außerhalb der Welt der Atome und Elektronen gern, besonders, wenn es um Liebesbeziehungen geht. Doch während die Chemie immer mehr darüber weiß, werden wir ratloser, wenn es um Bindungen geht.

Jetzt hat die Chemie sogar eine Bindung entwickelt, die man sich in der Halbleiterindustrie lange überhaupt nicht vorstellen konnte. Halbleiter stecken als Transistoren oder Dioden in Handys, Fernsehern oder Lampen. Sie sind bislang meistens aus Silizium und gehören zur Welt der anorganischen Chemie. Ihr Name kommt daher, dass sie Strom entweder leiten oder nicht.

Lange ist man davon ausgegangen, dass Halbleiter mit der organischen Chemie nicht zusammen passen – zu geringe Stromausbeute. Trotzdem blieb die Idee verlockend, eine Alternative zu den
herkömmlichen anorganischen Halbleitern zu entwickeln, weil sie mit ziemlich hohem Aufwand hergestellt werden. Außerdem sind sie nicht flexibel, sie lassen sich nicht verbiegen.

Daher blieb es eine wichtige Forschungsfrage, ob sich nicht doch gute Halbleiter aus Kohlenstoff entwickeln lassen. Gut bedeutet, dass sie mindestens so viel Strom leiten wie die üblichen aus Silizium. Stichwort: Effizienz.

Ein Schlüssel, um die Effizienz von Halbleitern zu steigern, ist die “Dotierung”. Dabei verändert eine sehr kleine Menge fremder Atome die Leitfähigkeit. Es geht also darum, zu erforschen, ob und welche Elemente sich einschleusen lassen, ohne dass z. B. der Fernseher oder das Handy kaputt gehen. Technischer ausgedrückt geht es darum, die Leitfähigkeit von Halbleitern so zu steigern, dass sie mit den herkömmlichen mindestens mithalten können und die Bauteile in denen sie enthalten sind nicht zerstören.

Prof. Karl Leo hat mit seinen Forschungsarbeiten gezeigt, dass es geht – Halbleiter aus Kohlenstoff können effizient Strom leiten, wenn man die richtigen Fremdatome in der richtigen Dosierung beifügt. Für diese Grundlagenforschung erhielt er im Jahr 2011 den Deutschen Zukunftspreis. Durch die gelungene Dotierung und da die organischen Halbleiter in extrem dünnen Schichten hergestellt werden können, konkurrieren OLEDs jetzt mit den herkömmlichen Halbleitern.

Die ersten Anwendungen sind schon auf dem Markt, genauer auf dem Display-Markt. Übliche, nicht selbstleuchtende farbige LCDs sind kurz gesagt ziemlich kompliziert herzustellen. Diese Leuchtdioden basieren auf anorganischen Flüssigkristallen. Unpraktisch ist auch, dass LCD-Monitore nicht aus allen Blickwinkeln gut lesbar sind.

Das ist bei den organischen Leuchtdioden (OLED) anders. Sie selbst emittieren das Licht im Unterschied zu LCDs, die es nur filtern. Daher sind Bildschirme mit OLEDs aus allen Blickwinkeln gut lesbar. Darüber hinaus lassen sie sich deshalb zu extrem flachen Displays verarbeiten. Sie benötigen keine Hintergrundbeleuchtung wie z. B. das i-pad. Genauso vorteilhaft ist der relativ geringe Energieverbraucht bei hoher Helligkeit.

Spektakulär wären aufrollbare Monitore, die als hauchdünne Roll-E-Books eher an Papyrus als an Displays erinnern. Oder eine elektronische Retro-Landkarte, die Straßen oder unterschiedliche Stadtansichten auf großer Fläche zeigt. Man könnte sich wieder mit dem Finger auf der Karte über den richtigen Weg streiten.

Doch nicht nur als Monitore könnten OLEDs unseren Alltag umkrempeln. Leuchtende Tapeten an der ganzen Wand oder Möbel mit integrierten Lichtmatten – Vieles ist denkbar.

Nachdem die Chemie also für die organische Halbleiterindustrie klären konnte, was in welcher Menge zum Dotieren gebraucht wird, ist noch eine ziemlich entscheidende Frage offen: Was muss getan werden, damit OLEDs möglichst lange halten? Tja, die Haltbarkeit ist auch für grob geschätzt 99,3 % aller Paare ein ungelöstes Rätsel.

Die Forschung wird das für die OLEDs sicher klären. Wir müssen für uns neben Fragen der Haltbarkeit klären, wie sich eine Bindung überhaupt aufbauen lässt. Das wird in Zukunft wohl nicht einfacher, egal ob mit LCD- oder OLED-Display, wie dieses Video zeigt:


Neue Erkenntnisse aus der Analyse der frühen systemischen Krebserkrankung

 

Steve Jobs' Fehler

Wenn sich Tochtergeschwülste eines Primärherdes, so genannte Metastasen, abgesiedelt haben, ist eine Krebserkrankung in der Regel lebensbedrohlich und schwer behandelbar. Die Konzentration in der Forschung liegt dementsprechend darin, Risikopatienten zu identifizieren und das Auswachsen von Metastasen durch gezielte Therapien zu verhindern.

Schwerpunkt ist dabei der direkte Nachweis einzelner gestreuter Tumorzellen zu einem Zeitpunkt, an dem noch keine Metastasen mit den in der Klinik üblichen Verfahren (zum Beispiel CT oder Ultraschall) nachweisbar sind.

Schon Mitte der 1990er Jahre wurde deutlich, dass entweder nicht alle Zellen, welche über spezifische Marker im Knochenmark entdeckt werden, Tumorzellen sind, oder aber nicht alle Tumorzellen zu Metastasen auswachsen.

Dies ergab sich, weil zahlreiche Patienten, bei denen Marker-positive Zellen gefunden wurden (Knochenmarkbefund), keine Metastasen entwickelten. Entsprechend konzentrierte sich die Forschung auf die Charakterisierung der im Knochenmark oder in den Lymphknoten entdeckten Zellen.

In den vergangenen 20 Jahren sind aus verschiedenen Gründen die Fortschritte bei der Analyse von Tumorzellen gering gewesen. Einen Durchbruch ergab die Fokussierung auf die Analyse der Nukleinsäuren DNA und RNA. Unserer Arbeitsgruppe gelang die Entwicklung zweier Techniken, mit denen sich erstens die gesamte genomische DNA einer Zelle vermehren lässt wie auch die gesamte mRNA einer Zelle.

Die mRNA ist die Information, die von einem Gen abgelesen und in ein Protein übersetzt wird. Mit der Möglichkeit, das Genom der gestreuten Tumorzellen zu untersuchen, ließen sich erstmals zentrale Aussagen des vorherrschenden Tumorprogressionsmodells, das von einer linearen Zunahme von Tumorzellen ausgeht, überprüfen.

So lässt sich zum Beispiel untersuchen, wann die Streuung von Tumorzellen im Verlauf der Tumorentwicklung beginnt. Das völlig unerwartete Ergebnis war, dass die Streuung extrem früh einsetzt. Eine weitere Überraschung war, dass die Tumorzellaussaat nicht mit der Größe des Tumors zunahm.

Wir konnten auch die Annahme der genetischen Ähnlichkeit von Primärtumor und gestreuten Tumorzellen überprüfen. Für alle bislang untersuchten Tumortypen ergibt sich das gleiche Bild: Sowohl im Knochenmark als auch in Lymphknoten weisen die gestreuten Tumorzellen deutliche Unterschiede zu dem vorherrschenden Klon des Primärtumors und zwar bezüglich der meisten genetischen Defekte.

Meist fanden wir bei den gestreuten Tumorzellen deutlich weniger genetische Defekte als in Primärtumorzellen, ein Befund, der dem bislang gültigen linearen Akkumulationsmodell klar widerspricht.

Diese Befunde stellen damit das bisherige Denken über den Ablauf einer Krebserkrankung auf den Kopf und werfen viele Fragen auf.

Prof. Dr. Christoph Klein vom Fraunhofer-Institut für Toxikologie und Experimentelle Medizin ist zugleich Inhaber des Lehrstuhls für Experimentelle Medizin Universität Regensburg. 2011 wurde er für die beschriebene Krebsforschung mit dem Dr.-Josef-Steiner-Preis ausgezeichnet.

Steve Jobs ist an Krebs gestorben. Und an Ignoranz.
Den Applegründer quälte schon länger ein Nierenleiden, als er im Oktober 2003 zufällig seine Urologin traf. Sie forderte ihn auf, eine Tomographie machen zu lassen, die letzte sei schon fünf Jahre her. Jobs – schon lange eine Skepsis gegenüber der Schulmedizin mit sich herumtragend – fügte sich. Das Ergebnis brachte keine Probleme mit den Nieren ans Licht. Aber einen Schatten auf der Pankreas. Die Urologin forderte ihn auf, einen weiteren Termin zu vereinbaren. Er ignorierte die Aufforderung, denn, wie Biograph Walter Isaacson feststellte: “Er war gut darin, stur Informationen zu ignorieren, die ihm nicht in den geplanten Ablauf passten”.

Die Urologin hatte offenbar sowohl die Ahnung, was der Schatten bedeuten könnte wie auch ihre Erfahrungen mit Jobs und bestand ein paar Tage später auf einer Pankreasuntersuchung. So kam Steve Jobs im Oktober 2003 zur Diagnose Pankreaskrebs. Noch am gleichen Abend nahmen die Ärzte eine Biopsie vor. Deren Ergebnis wiederum veranlasste die Mediziner zu großem Optimismus. Es kommen nämlich hauptsächlich zwei Arten des Bauchspeichdrüsenkrebses vor: das Adenokarzinom und den Inselzellen-Tumor. Das erstere wird in ungefähr 19 von 20 Fälllen diagnostiziert, wächst schnell und ist schwieriger behandelbar. Deshalb gilt es als Todesurteil. Der Inselzellen-Tumor dagegen wächst langsamer und ist einfacher zu operieren, wenn man ihn früh genug entdeckt. “Früh genug”, diese Formulierung lässt sich bei Tumoren meistens an einem speziellen Zeitpunkt festmachen: dem Moment, ab dem Krebs “zu streuen” beginnt, also ab wann Tumorzellen durch den Körper wandern.

Neueste Forschungen zeigen hier für die Fachwelt überraschende Ergebnisse. Zum einen fangen Tumoren noch viel früher an zu streuen, als man bisher annahm. Und die Streuung hat wenig mit der Größe des Tumors zu tun. Auch bilden nicht alle gestreuten Zellen Metastasen aus. Die Forschung, warum und wie genau diese Zellen Ableger des Tumors bilden, ist also elementar – zum Beispiel, weil ein Medikament, was gezielt die Ansiedlung von umhergestreuten Zellen verhindern würde, viel Zeit für die Behandlung gewinnen würde. Zeit ist auch für Steve Jobs der entscheidende, letztlich todbringende Punkt gewesen. Denn statt das Glück im Unglück, einen operierbaren Tumor ausgebildet zu haben, medizinisch sinnvoll zu nutzen – entschied er sich gegen eine Operation. Seine Familie, aber auch Freunde wie Intel-Chef Andy Grove, der selbst eine Krebserkrankung überlebt hatte, redeten auf ihn ein. Sogar ein bekannter Naturheilkundler riet ihm dringend zur Operation. Aber Jobs bestand darauf, dem Krebs zu begegnen mit Fruchtsäften, Kräutern und mit placeboeffektstimulierenden Nadelattacken, also Akupunktur. Kurzzeitig soll er laut Isaacson sogar unter dem Einfluss eines Scharlatans gestanden haben, der ihm Darmspülungen sowie das Herausschreien negativer Gefühle empfahl.

Neun Monate später erst, unter dem Flehen seiner Familie, lenkte er ein und unterzog sich einer Operation. Aus heutiger wissenschaftlicher Sicht ist es wahrscheinlich, dass genau diese neun Monate den Unterschied zwischen Leben und Tod ausgemacht haben. Denn Steve Jobs scheint letztlich daran gestorben zu sein, dass der Krebs nicht mehr vollständig entfernt werden konnte. Seine Leberstransplantation etwa deutet darauf hin, denn die Leber ist oft der Angriffspunkt für gestreute Krebszellen. Eine seltsame Ironie des Lebens oder vielmehr Ironie des Todes, dass die Person, deren Einfluss auf die Technologie des 21. Jahrhunderts größer war als von sonst jemandem, ausgerechnet an der Verweigerung von High-Tech-Medizin gestorben sein mag. Aber vielleicht war sein Tod nicht umsonst, denn nach seiner Abkehr von der gefährlichen Quatschmedizin brachte er mit seinen unbegrenzten finanziellen Mitteln die Krebsforschung voran, zum Beispiel liess er sein Tumorgenom komplett identifizieren. Lernen kann man daraus – gerade in Kombination mit den neuen Forschungsergebnissen – dass buchstäblich jeder Tag zählt, im doppelten Wortsinn: bei der Behandlung von Krebs. Und beim Leben selbst natürlich auch.


Energy Harvesting

 

Weltrettung durch Rumliegen

Vereinfachtes Aufbauschema des Boost-Converter (im Text: Fig. 1)


[…] The two main improvements of the presented step- up converter over the classical step-up converter are the transformer instead of the single coil and the parallel connection of transistors T1 and T2 [5]. In the presented design a transformer is needed because a secondary winding decreases the minimum input voltage. With input voltages below 500 mV, an active circuit for controlling the switching transistor cannot be built. Hence, the converter has to be self oscillating, which needs a secondary winding for driving the mentioned transistor.

The second improvement consists in the use of two switching transistors in parallel. One transistor is only employed for starting the converter and the other one is used during steady state operation. A junction field effect transistor, JFET T1, is chosen as starting transistor because it is already conducting with a zero gate voltage and has also a low gate threshold voltage. Nevertheless, it can not be used as the main switching transistor since its on-resistance is generally in the order of some tens of Ohms which would produce high conduction losses and thus a decrease in the efficiency of the converter. Therefore, the NMOS transistor T2 becomes the switching element after the start-up phase. The parallel connection of both transistors allows having a switch with low on resistance (5 Ω) during steady state and zero threshold gate voltage for start-up.
[…]
At startup, JFET T1 conducts with positive input voltages. […] When the supply voltage Vin is rising, the current over the JFET T1 IT1 is increasing too. As the current on the primary winding of the transformer L1 is rising, a small voltage is induced in the secondary winding, L2. Because of the conducting pn-junction of the JFET, C1 is charged to a slightly negative voltage. When Vin reaches its maximum value, the current over the inductor L1 gets constant, the voltage over L2 turns to zero and then the negative voltage stored on C1, VC1, is on the gate of T1. If this voltage is near the pinch-off voltage of the JFET, the current through L1 starts to decrease. The current decrease on L1 induces a positive voltage over L2 and therefore a negative voltage at the gate of T1. The JFET T1 now switches off. When the voltage pulses over the secondary winding are big enough, T2 switches on. The dc voltage on the capacitor C1 gets more and more negative so that, the JFET T1 is not conducting anymore and only T2 is switching. […] The voltage value on the gate of T2, Vreg, modifies the value of the on-resistance of the NMOS transistor and therefore the time that it is switched on, keeping the switch off time almost constant. Thus, the value of Vreg regulates the output voltage of the converter, Vout, basically modifying the switching frequency of the converter. The converter works in the boundary between continuous and discontinuous conduction mode, see ID1 and IT2 waveforms in Fig. 4, due to the self oscillation caused by the employment of the transformer. The freewheeling diode D1 (see Fig. 1) was replaced by a PMOS transistor which is switching on when the MOSFET T2 is not conducting. The PMOS transistor is controlled by a simple inverter circuit connected to the drain of T2. In that way the boost converter becomes a synchronous converter. This change causes a reduction on the forward voltage of the component and consequently an enhancement in efficiency of up to 5 %, depending on the output current of the converter.
[…]
The regulation loop circuit, see Fig. 4, is composed by a starting aid circuit, a MOSFET gate protection circuit and an output voltage regulation circuit.
The starting aid circuit consists of two capacitors connected in parallel: C3 (22 nF) and C4 (470 pF). C3 is connected in series with a JFET T3. At startup, the gate-source voltage on T3 is 0 V and thus C3 is connected in parallel to C4. This parallel connection helps the converter to begin the oscillation at low input voltages. The turns ratio between the secondary inductor, L2, and the primary inductor, L1, is 17 in order to have a minimum start-up voltage of 70 mV and a low ohmic resistance of the primary winding that does not affect the efficiency of the converter. Nevertheless, this causes an excessive gate-source voltage of MOSFET T2 which originates high switching losses. However, JFET T3 is switched-off during steady state operation and therefore only capacitor C4 (which has a lower capacitance than C3) is active which motivates a reduction in the gate-source voltage of T2. Hence, the parallel connection of capacitors C4 and C3, through T3, accomplish a low start-up voltage and a reduction in the switching losses.
The MOSET gate protection circuit preserves T2 against high gate-source voltages that can damage the transistor. The circuit consists of a signal diode D2 and a zener diode D3 with a breakdown voltage of 6.8 V. Resistor R2 is connected in parallel to D3 for starting up the converter. The third circuit of the regulation loop is the output voltage regulator itself which consists of two diodes, D4 and D5, a transistor, T4, and a potentiometer, R4. This circuit controls the positive value of the gate-source-voltage of the switching MOSFET T2. Because of its simplicity, it is not as accurate as a complex loop, but it has a very low current consumption, which is more important in the design of a converter to be employed in an energy harvesting system. […]
A solution for up-converting extremely low voltages coming from energy harvesting power supplies like thermogenerators, inductive generators or solar cells is presented. The minimum start-up voltage achieved is 70 mV and for input voltages of 300-500 mV the efficiency is greater than 70 % for 2 V output voltage.

Deepwater Horizon, Fukushima und die stark unterbeachteten, teilweise schon tausende Jahre andauernden Kohlebrände – auffällig viele Katastrophen lassen sich direkt mit der Energiegewinnung in Verbindung bringen. Und man muss weder Verschwörungstheoretiker noch Weltpolitikexperte sein, um bei verschiedenen kriegerischen Konflikten die Gründe auch im Bereich der Energieversorgung zu suchen.

Wenn man dann auch noch – nicht eindeutig geklärt, aber qualifiziert vermutet – verschiedene Klimaturbulenzen und angrenzende Naturkatastrophen mit dem CO2-Ausstoss der Welt in Zusammenhang bringt, dann muss man, mal abgesehen von Eurodance, lange nach einer Katastrophe grübeln, die nicht verquickt ist mit dem Energiedurst der Zivilisation.

Vom superrelevanten, energie-geopolitischen Großgetöse hinunter in die kleinsten und scheinbar unwichtigsten Zusammenhänge, die mit bloßem Auge noch erkennbar sind: in das feine Gewebe des eigenen Schlafanzugs hinein. Auf den ersten, zweiten und für viele Leute auch dritten Blick hat die wunderbare, von den weitaus meisten Leuten ausgeübte Tätigkeit des Herumliegens wenig mit, sagen wir, einem garstigen Krieg um Öl zu tun. Diese Betrachtungsweise täuscht. Tatsächlich könnten sich viele Probleme und Katastrophen der Welt durch Herumliegen lösen lassen.

Weil sich die kausale Verkettung dahinter nicht jedem sofort erschliessen mag, sei hier etwas ausgeholt. 1821 entdeckte Thomas Johann Seebeck an der Berliner Universität den Seebeck-Effekt. Dabei fliesst ein Strom zwischen zwei elektrischen Leitern, wenn zwischen ihnen ein Temperaturunterschied besteht. Dieser Stromfluss ist allerdings so winzig klein, im Millivoltbereich, dass er lange nichts weiter war als bloß interessant. So geht es nicht nur mit dem Seebeck-Effekt, sondern mit einer Reihe von Alltags-Energien, von denen jeder weiss, dass sie anfallen, die sich aber kaum sinnvoll ernten lassen.

Kleine Flächen von Solarzellen, in die Kleidung eingearbeitete Bewegungsgeneratoren, die die Herumlauf-Energie in Strom verwandeln, been there, done that, keine Überraschung. Durch die schiere Zahl der Menschen und die vielen Gelegenheiten, zu denen sich theoretisch Energie abschöpfen liesse, kommt in der Masse eine durchaus relevante Menge zusammen – erst recht, weil gleichzeitig durch die Effizienzbemühungen die von Geräten benötigte Energie immer weiter sinkt (je Gerät).

Das Problem bisher war, dass man die winzigen Spannungen kaum effizient umwandeln konnte in ausreichend große Spannungen, die sich abernten lassen, zum Beispiel in einen Akku hinein. Die nebenstehende Neuentwicklung eines Boost-Converters ändert das, und zwar mithilfe einer intelligenten Verschaltung von bereits vorhandenen Bauteilen.

Man kann sich das ungefähr vorstellen wie die Erfindung der Dachrinne, die die einzelnen Tropfen, die vorher unverwertbar aufs Dach fielen, geschickt zusammenführt und schliesslich in die Regentonne leitet, wo sie zentral abgeschöpft werden können. Zuviel sollte man auf diese volksnahe Metapher natürlich nicht geben, aber freuen kann man sich trotzdem, denn ein solcher Boost-Converter macht die Gewinnung der thermodynamischen Energie beim Herumliegen möglich.

Der beschriebene Seebeck-Effekt funktioniert natürlich auch dann, wenn ein Thermogenerator in den Schlafanzug eingewoben ist und den Temperaturunterschied zwischen dem liegenden Körper und der Umgebungsluft in Strom verwandelt.

Dieser Temperaturunterschied beträgt in der Regel drei bis fünf Grad Celsius und das reicht für den Thermogenerator “Peltron module 128A1030″, um eine Spannung von 150 bis 250 Millivolt zu erzeugen. Diese ließe sich mit dem Boost-Converter mit knapp 70% Effizienz wandeln in eine 2-Volt-Spannung und dann zum Beispiel in einen Akku im Schlafanzug einspeisen.

Da das Hauptproblem beim Ernten kleinster Energiemengen nun gelöst scheint und auch die Akkus (das zweitgrößte Problem bisher) immer besser werden, steuern wir geradewegs auf eine Welt zu, die einen immer größeren Teil der benötigten Energie durch den Temperaturunterschied beim Herumliegen erzeugt. Es hört sich an wie ein Märchen, aber Kleidung mit Akkusladegeräten, Liege-Farmen zur Energiegewinnung – aus “Krieg für Öl” wird “Lieg’ für Öl”, okay, das war ein Wortspiel zu viel.

Aber allein angesichts der nicht besonders realistischen, aber doch technisch möglichen Perspektive, in Zukunft professioneller Herumlieger zu werden und damit durch die Sicherung der Energieversorgung die Katastrophen und Konflikte der Welt helfen zu lösen, kann man schon mal etwas ins Schwärmen geraten.



Vereinfachtes (aber nicht unbedingt einfaches) Aufbauschema des Regelungsschaltkreises für den Boost-Converter (im Text: Fig. 4)

(Download des wiss. Paper)

Ein 5-Mikron-Bild von Beta Pictoris

 

Wenn Planeten verstecken spielen


Studien während der letzten 2 Jahrzehnte haben Hinweise darauf geliefert, dass der 12 Millionen Jahre alte A-Typ-Stern Beta Pictoris ein junges Planetensystem beherbergt. Kürzlich entdeckten Lagrange et al einen Planet 9 ± 3 Jupitermassen um diesen Stern. Er konnte bei projizierten Abständen zwischen 6 und 8 AU direkt beobachtet werden und könnte einen direkteren Vergleich mit den Gasriesen des Sonnensystems ermöglichen als die bisher direkt beobachteten Planeten die sich weiter entfernt von ihrem Stern befinden (z.B. Fomalhaut b und HR 8799bcd). Aktuellen Studien muss es erst noch gelingen, den Planeten bei projizierten Abständen kleiner als 0.3 Bogensekunden zu detektieren. Beobachtungsdaten bei solch kleinen Abständen könnten wichtige Einschränkungen für die Bahn des Planeten liefern.
[...]
Neue M-Band Beobachtungen und L-Band Beobachtungen mit hohen Signal-zu-Rausch-verhältnis erlauben bessere Einschränkungen der Planetenbahn.
[...]
Unter der Annahme, dass sich Beta Pictors in 19.3 Parsec Entfernung befindet, stand der Planet am 11. November 2008 in einer projizierten Distanz von 4.05 ± 0.5 AU und von 6.29 ± 0.25 am 29. Dezember 2009.
[...]
Bei diesem Ansatz wurden Monte-Carlo-Simulationen durchgeführt bei denen die Astrometrie mit Vorhersagen von zufällig ausgewählten Bahnen verglichen wurde wobei alle Bahnparameter variieren konnten.

Currie et al (2011)

Für Fits mit einem χ² < 2.18 ergibt sich, dass der Planet eine große Halbachse von 10.81 (+5.44 / -2.52) AU und eine moderate/kleine Exzentrizität ( e < 0.32) haben muss. Lässt man auch Lösungen mit χ² < 8 zu, betragen die Intervalle der Parameter 9.55 (+3.46/-2.37) AU und e < 0.24. In beiden Fällen sind die Werte für die Inklination (i ~ 88.06-89.71 Grad) und die Länge des aufsteigenden Knoten (Ω ~ 30.52-32.04) stark beschränkt und implizieren dass die Bahn des Planeten fast perfekt der äußeren Trümmerscheibe des Sterns angepasst ist aber nicht der geneigten inneren Scheibe.
[...]
Die Modelle allerdings, die die Neigung der inneren Scheibe der Existenz eines Planeten zuschreiben nehmen an, dass die Bahn des Planeten ebenfalls gegenüber der Hauptscheibe geneigt ist. Motiviert durch diese neuen Einschränkungen der Bahn von Beta Pic b sollte die Dynamik der Interaktion zwischen Planet und Scheibe neu untersucht werden. Wenn sich herausstellt, dass Beta Pic b oder Mechanismen, die nicht mit Planeten zusammenhängen die Neigung der inneren Scheibe nicht erklären können, dann muss man vielleicht von der Existenz eines weiteren Planeten in diesem System ausgehen.

(Thayne Currie, Christian Thalmann, Soko Matsumura, Nikku Madhusudhan, Adam Burrows, Marc Kuchner: “A 5 Micron Image of beta Pictoris b at a Sub-Jupiter Projected Separation: Evidence for a Misalignment Between the Planet and the Inner, Warped Disk“)


Extrasolare Planeten direkt zu sehen ist gar nicht so einfach wie man denken mag. Es reicht nicht, einfach nur große Teleskope zu haben. Die Planeten leuchten ja selbst nicht und werden von ihren Sternen komplett überstrahlt – deswegen benutzen die Astronomen auch meistens indirekte Methoden um die Existenz der Exoplaneten nachzuweisen. Eine Chance auf eine direkte Beobachtung hat man nur, wenn der Planet weit entfernt vom Stern und sehr groß ist; viel weiter als die Planeten, die unsere Sonne umkreisen. Oder aber man hat eine ausgeklügelte Technik zur Datenauswertung und Bildbearbeitung mit der man die störende Strahlung des Sterns weitesgehend entfernen kann. Auf diese Art wurde Ende 2008 ein Planet um den Stern Beta Pictoris direkt abgebildet.

Dieser Planet ist auf gleich mehrere Arten bemerkenswert. Abgesehen davon, dass er zu den wenigen direkt beobachteten Exoplaneten gehört, ist er auch noch sehr jung. Das Planetensystem von Beta Pictoris ist erst einige Millionen Jahren alt (im Gegensatz zu den 4.5 Milliarden Jahren die unser Sonnensystem auf dem Buckel hat). Und er ist seinem Stern sehr nahe! Er ist von Beta Pictoris in etwa so weit entfernt wie Saturn von unserer Sonne und wäre daher sehr gut geeignet, um unser System mit extrasolaren Planetensystemen zu vergleichen. Seine Entdeckung kam auch nicht überraschend – Wissenschaftler waren sich vorher schon ziemlich sicher, dass er da sein muss. Denn der Stern Beta Pictoris ist außerdem noch von einer großen Scheibe aus Staub umgeben:

Staubscheibe um den Stern Beta Pictoris

Sowas nennt man “Trümmerscheibe” und ihr Ursprung sind tatsächlich die “Trümmer” die bei der Entstehung der Planeten übrig blieben. Besser bekannt sind die Trümmer allerdings unter dem Namen “Asteroiden”. Auch wenn die Asteroiden natürlich viel zu klein sind, um direkt gesehen zu werden, ist es möglich, den Staub zu beobachten, den sie erzeugen wenn sie im Laufe der Zeit immer wieder zusammenstossen. Der wird durch das Licht des Sterns aufgeheizt und strahlt diese Wärme wieder ab – und das können wir mit Infrarotteleskopen sehen.

Die Trümmerscheibe um Beta Pictoris zeigt nun diverse Unregelmäßigkeiten. Es gibt diverse Lücken und “Klumpen” (also Bereiche größerer Staubdichte). Die Scheibe selbst ist teilweise etwas geneigt und “verbogen” und all das sind Anzeichen für die Existenz eines Planeten dessen gravitative Wirkung die Asteroiden und den Staub in der Scheibe stört. Besonders die Neigung des inneren Bereichs der Scheibe wird als sicheres Zeichen für das Vorhandenseins eines Planeten auf einer ebenso geneigten Bahn angesehen. Als nun 2008 der Planet um Beta Pictoris tatsächlich entdeckt wurde, freute man sich zwar sehr; die Überraschung hielt sich aber in Grenzen. Eine neue Analyse der Beobachtungsdaten zeigt aber nun, dass Beta Pictoris vielleicht noch mehr zu bieten hat. Als Wissenschaftler die Bahn des Planeten genauer berechnet hatten als es bis dahin möglich war, stellten sie fest, dass sie nicht auf die Art und Weise geneigt ist, wie sie es sein müsste, um die Neigung der Scheibe zu erklären. Die Chancen, dass noch mehr Planeten um Beta Pictoris kreisen sind also hoch!


Gerbung unter dem Einfluss verdichteten Kohlendioxids

 

Aufstieg und Fall des Übergangsmetalls Chrom

Im verwendeten Aufbau wurde das zu gerbende Stück Haut in der Zelle vorgelegt, die Zelle verschlossen und unter Kohlendioxiddruck gesetzt. Der Druckaufbau erfolgte über eine Pumpe, die durch kontinuierliche CO2-Zugabe den Druck in der Sichtzelle erhöht hat. Nach Erreichen des gewünschten Drucks wurden die Ventile geschlossen. Die Temperierung der Hochdrucksichtzelle erfolgte über zwei Heizstäbe, die im Behältermantel integriert sind. Das Innere der Zelle kann über zwei Sichtfenster auf der Vorder- und Rückseite beobachtet werden. Auf der Sichtzelle ist ein Rührer montiert, mit dessen Hilfe das Gemisch in der Sichtzelle umgerührt wurde.

Die im unten gezeigten Diagramm dargestellten Ergebnisse zeigen den Vergleich der Gerbdauer von konventionellem und kohlendioxidunterstütztem Verfahren. Die Gerbung bei 100 bar zeigt eine ähnliche Charakteristik wie die konventionelle Gerbung, aber in wesentlich kürzeren Zeitabständen. Nach einer ersten schnellen Zunahme auf 40 % der geforderten Chrommenge nach einer Stunde stagniert die Zunahme. Nach dieser Stagnation nimmt der Chromgehalt erneut schnell zu. Nach 4 h Gerbdauer ist das Kriterium zu 85 % erfüllt, nach 5 Stunden zu 100 %.

Im Anschluss nähert sich der Chromgehalt einem Grenzwert bei 129 %. Dies entspricht einem Chromgehalt von 3,6 %. Dieser Messwert wird auch in der Literatur als maximale Chrombindungsfähigkeit bestätigt und zeigt die Vergleichbarkeit zwischen Labormaßstab und Gerbung im industriellen Maßstab.

[…]
Die Versuche im Labormaßstab haben gezeigt, dass eine zeitbeschleunigte Gerbung unter dem Einfluss verdichteten Kohlendioxids möglich ist. Um ein Verfahren industriell umsetzen zu können, müssen Materialmuster erzeugt werden, die eine repräsentative Größe haben. Gerade im sehr traditionell geprägten Gerbereiwesen können potenzielle Kunden nur über haptisch zu beurteilende Produktmuster überzeugt werden. Für die Gerbung im Pilotmaßstab ist eine neue Anlagentechnik bei Fraunhofer UMSICHT 2008 aufgebaut worden.

Diese Anlage ermöglicht es Leder bis zu einem Druck von 320 bar und einer Temperatur von 60 ºC in einem sich drehenden 20 L großen Korb zu gerben. Die Größe der Leder, die produziert werden können, beträgt ca. 0,75 m2. Die Rotation des Korbes ist für die Erzeugung einer hohen Lederqualität unerlässlich, da sowohl der Diffusionsprozess durch Saugeffekte gesteigert wird, wie auch das Leder eine höhere Flexibilität erlangt.
[…]
Das Verfahren zeichnet sich dadurch aus, dass es nicht nur erheblich weniger Zeit als ein konventionelles Verfahren beansprucht, sondern auch eine signifikante Einsparung chromhaltigen Abwassers möglich ist. Für dieses neue Verfahren werden die Häute nur mit soviel Flüssigkeit in Kontakt gebracht, wie sie aufsaugen können. Die Flüssigkeit enthält eine sehr hohe Chromkonzentration. Während des Hochdruckprozesses wird die Flüssigkeit von der Haut aufgesaugt und die Chromionen diffundieren zu den reaktiven Stellen (Carboxylgruppen) des Hautkollagens. […]

Die Reduzierung des Abwassers kann bei dieser Verfahrensweise mit über 90% angegeben werden. Beim konventionellen Gerbprozess werden ca. 1,5 bis 2 t chromhaltigen Wassers für die Erzeugung einer Tonne Leder benötigt. Bei der neuen Verfahrensweise fällt unter 100 kg Abwasser pro Tonne Leder an.

Übergangsmetall! Wenn man schon mit dieser stigmatisierenden Bezeichnung geschlagen ist, so wie das Chrom, dann ist einem Blütezeit und Absturz praktisch in die Wiege gelegt. Und genau so erging es dem Chrom. Das 18. Jahrhundert war auf der Zielgeraden, als rechtzeitig zum Industriezeitalter Louis-Nicolas Vauquelin 1797 das Übergangsmetall Chrom entdeckte und ihm den Namen gab, das griechische Wort für Farbe. Zwar hatte schon Johann Gottlob Lehmann 36 Jahre vorher das Chrom entdeckt – hielt es aber für eine Verbindung aus Blei, Eisen und Selen. Gut zwanzig Jahre nach seiner Chromentdeckung konnte Vauquelin 1818 das Bleisalz des Chroms, Blei(II)-Chromat isolieren, die ohne jede Übertreibung gelbste Erfindung der Neuzeit. In Form dieses Chromgelb genannten Salzes eroberte Chrom die westliche Zivilisation, denn Chromgelb war eine so strahlende Farbe, dass trotz ihrer recht schnell entdeckten Giftigkeit überall als Modefarbe verwendet wurde. Nicht Strom, sondern Chrom war gelb.

Die Familie Thurn und Taxis zum Beispiel hatte über die Jahrhunderte nicht nur das Postgeschäft aufgebaut, sondern stets auch recht goldene Wappenfarben. Da kam das strahlenden, sonnenhafte, für das damalige Farbgefühl offenbar recht goldnahe Chromgelb gerade recht und wurde zum thurn-und-taxis’schen postgelb geadelt. Die Nachfahren des Chrom stecken bis heute also in allen gelben Postämtern und Taxis der Welt, von New Yorker Cabs über die französische Post bis zu den nepalesischen Taxischildern in Kathmandu. In der zweiten Hälfte des 19. Jahrhunderts wurde schließlich die Chromgerberei patentiert – Lederverarbeitung war damals im Deutschen Reich der drittgrößte Gewerbezweig – und Vincent van Gogh malte seine Bilder, die für ihre Chromgelbtöne heute berühmt sind: Chrom auf einem Höhenflug der gesellschaftlichen Achtung, kaum ersetzlich in der aufblühenden chemischen Industrie. Und auch in der Medienlandschaft nahmen sich Chromverbindungen ihren Platz, bei Druckverfahren ebenso wie bei der Fotografie – der Name Kodachrome zum Beispiel zeugt davon. Als sich zeigte, dass bei der Obeflächenbehandlung von Metall die Verchromung wunderbare Effekte in Aussehen und Haltbarkeit erzeugte, bekam mit dem globalen Erfolg der Automobilindustrie die Welt das wahre, glänzendmetallene Gesicht des Chroms zu sehen, nicht nur seiner gelben Verbindungen. Chrom spielte in jedem Film aus Hollywood mit, Verchromtes war das Zeichen des Wohlstands.

Und dann der Zenit. Ein ganzes Jahrzehnt definierte sich über Chrom, die 1980er Jahre brachten die Verchromung als Haltung gegenüber der Welt. Vielleich hätte man es am doch recht schmierigen, hohlen Wort “Lifestyle” merken können. Vielleicht hätte Chrom in seinem Grössenwahn nicht allzusehr auf Mode und Ästhetik setzen sollen, denn in seiner glänzenden Exponiertheit geriet es in den Fokus der Umweltbewegung, die genau in dem Jahrzehnt an Fahrt gewann, in dem Chrom – seit den 1950ern an vielen Automobilen im typischen Glanz zu finden – seinen verchromten Höhepunkt in der Popkultur feierte.

Aber Chrom glänzte zu sehr, um nach den glitzernden 80er Jahren noch eine Rolle zu spielen, und seine Giftigkeit – die es ja nie verborgen hatte – wurde immer stärker zum gesellschaftlichen Kriterium. Es folgte der grausame Absturz in die Autotuning-Szene, vom Gelb van Goghs zur verchromten Stossstange eines Gebrauchtwagen. Bitter.

Und doch wird Chrom noch gebraucht. In der anfangs beschriebenen Gerberei sogar sehr dringend. Heutzutage gibt es in der EU 1.650 Gerbereien mit 26.000 Beschäftigten. Und es werden ungefähr 90% der jährlich 2.000 Quadratkilometer gegerbten Leders mithilfe des Chroms hergestellt, man könnte damit Berlin zweimal vollflächig mit Leder auslegen, eine so mittelschöne Vorstellung. Immer mal verursacht das Chrom mit seinen vielfältigen und zum guten Teil giften Verbindungen Umweltskandale, zuletzt 2010 im Trinkwasser in den USA. Aber trotz seiner Notwendigkeit im Hintergrund arbeiten viele Hände und Köpfe daran, es immer weiter zu reduzieren, Molekül für Molekül. Ein neues Verfahren zur Gerberei reduziert sowohl die Menge des verwendeten Chroms wie auch die des verchromten Abwassers – anders verchromt als Stahl, natürlich – um 90%. Sogar dort, wo am Chrom kaum ein Weg vorbeiführt, wird es in die Ecke gedrängt, marginalisiert, im wahrsten Sinne unter Druck gesetzt, denn so funktioniert das Gerbverfahren, unter Hochdruck mit CO2. Chrom wird uns weiter begleiten, immer wieder auf seine Unverzichtbarkeit pochen, und seine Vorteile versuchen, geschickt zu inszenieren. Aber jeder, der die 80er Jahre miterlebt hat, weiss: die großen Tage des Chrom sind vorbei, unwiderruflich.


Lupinenfasern zur Cholesterol-Reduktion

 

Hipper sterben mit Lupinen

Die gesteigerte Absorption von Gallensäuren durch gezielte Ballaststoffzufuhr ist allgemein als Instrument zur Cholesterol –Reduktion, und damit zur Verminderung des Risikos an Darmkrebs zu erkranken, anerkannt. Das Cholesterol senkende Potenzial verschiedener Ballaststoffe ist über die Messung ihres Gallensäurebindevermögens vielfältig untersucht worden. Bislang gibt es in der Literatur jedoch wenig Daten zum Gallensäurebindevermögen von Leguminosenfasern, speziell der Lupine. Genießbare Sorten dieser Nutzpflanze lassen sich erst seit etwa zehn Jahren in Nordeuropa anbauen.

Eine vorliegende Studie des Fraunhofer Instituts für Verfahrenstechnik und Verpackung (IVV), gefördert durch das Bundesministerium für Bildung und Forschung (BMBF), hatte die Charakterisierung der Bindungsmechanismen zwischen Ballaststoffen aus Lupinen (Lupinus angustifolius L. Boregine) und der Gallensäure Taurocholsäure zum Ziel. Die Studie verwendete ein neu entwickeltes Verfahren, das den Verdauungsprozess im Reagenzglas simuliert, eine „In-Vitro-Digestion“. Es sollte insbesondere herausgefunden werden, welche Auswirkung mechanische und chemische Veränderungen der Fasern auf ihr Cholesterol senkendes Potenzial haben.

Während für die unbehandelte Lupinenfaser eine Bindungskapazität von 19% gegenüber Cholesterol nachgewiesen wurde, konnte durch mechanische und auch chemische Modifizierungen eine signifikante Steigerung dieser Eigenschaft erzielt werden. Ein partieller enzymatischer oder saurer Faserabbau konnte eine Verdopplung der Bindungskapazität auf 38% bewirken. Zum Vergleich: Cholestyramin, ein gängiger, Cholesterol hemmender pharmazeutischer Wirkstoff, weist eine Bindungskapazität von knapp 100% auf.

Die Studienergebnisse belegen die physiologische Wirkung der Lupinenballaststoffe und der Steigerungsfähigkeit dieser Eigenschaft durch gezielte strukturelle Modifizierung der Fasern. Der Einsatz von Lupinenfasern in der Nahrungsmittelindustrie sowie auch in der medizinischen Anwendung ist für die Zukunft vielversprechend.

Eine der unangenehmsten Begleiterscheinungen des Lebens ist das Sterben. Während mangels Erfahrungsberichten von Leuten, die schon mal gestorben sind, wenig über das Gefühl danach bekannt ist, ist der Sterbevorgang selbst äußerst unpopulär. Sehr populär dagegen sind ein paar Arten zu sterben: in der westlichen Welt sind Herz-Erkrankungen the western way to die, ebenfalls weit vorne sind Schlaganfälle.

Interessanterweise lassen sich diese beiden Todesursachen – immer wieder diskutiert, aber vermutlich doch – mit Cholesterin in Verbindung bringen, wobei es mit diesem fettartigen Naturstoff ist wie mit fast allem: zuviel ist ebenso ungünstig wie zu wenig, siehe auch zuviel Wasser (ertrinken im Meer) vs. zu wenig Wasser (verdursten, geht wegen des Salzwassers allerdings auch im Meer). Relativ unbestritten ist aber, dass die Durchschnittsperson in unserer fleischigen, fettigen, fressaffinen Gesellschaft mit Frittierfetisch zuviel Cholesterin zu sich nimmt, wenn zum Beispiel schon das Frühstück aus frittiertem Fett mit Öl in zerlassener Butter besteht. Deshalb ist es sinnvoll, Lebensmittel herzustellen, die dem Cholesterin entgegenwirken können.

Eine neue Studie der Fraunhofer Gesellschaft hat sich dabei auf die Lupine konzentriert, diese schön benamte Blume, deren Saaten man essen kann. In den Anden wird sie seit Jahrhunderten angebaut und gegessen, hierzulande gibt es erst seit kurzem süsse Lupinenarten, die besser als grauenvoll schmecken. Die Lupine hat den Vorteil, dass sie von ganz allein Cholesterin reduziert, in dem sie mit Ballaststoffen um sich wirft. Die Studie wollte diesen Effekt nachweisen und untersuchen, wie man ihn dazu noch verstärken kann. Und – Überraschung! – die Studie hat den Effekt bestätigt und mit einem paar mechanischen und chemischen Tricks die cholesterinsenkende Wirkung sogar verdoppeln können. Sonst würde der Artikel hier ehrlich gesagt auch gar nicht stehen, über Studien, die das Gegenteil der eigenen Vermutung belegen, schreibt man ja eher ungern.

Aber was bringt die Lupine mir so? Eine spannende Frage, die sich abgesehen vom Lupineneis in den nächsten Jahren noch genauer klären wird. Die Ballaststoffe der Lupine sind eine Art natürlicher Gesundheitswirkstoff. Bäckereien könnten deshalb zum Beispiel Brot mit Lupinenmehl backen, das gewissermaßen als cholesterinsenkendes Gegenmittel zum panierten Schweinebraten wirkt.

Nach dem gegenwärtigen Forschungsstand stirbt man also weniger oft an den üblichen Standardursachen, wenn man seine Mahlzeiten ab und an mit Lupinen versetzt – und damit erhöht sich natürlich die Chance auf eine ungewöhnlichere, hippere Todesart (z.B. ertrinken oder verdursten im Meer). Leute allerdings, denen Mode wichtig ist und die deshalb so sterben wollen wie alle anderen, nämlich an Herzinfarkten, Schlaganfällen und anderen Kreislauferkrankungen, die sollten in Zukunft auf eine möglichst lupinenarme Ernährung achten.


Medizinische Muschelproteine

 

Dankbarkeit gegenüber Muscheln

In der Natur ist Kleben die dominierende Fügetechnik. Die Bioadhäsion von Molekülen bildet die Basis bei der Entstehung aller Lebewesen. Es führt weiter bis zu makroskopischen Klebstoffen tierischen Ursprungs, die in ihrer Funktion und Form unseren Klebverbindungen ähneln. Die Medizintechnik will solche Verbindungen nachahmen.

Klebstoffe sind empfindlich gegenüber Wasser. In der Natur ist die Anwesenheit von Wasser in lebenden Systemen der Normalfall und die Probleme sind seit Jahrmillionen gelöst. Die zugrundeligenden Mechanismen zeigt das Beispiel der Miesmuschel Mytilus edulis, deren Klebstoff gut erforscht ist. Daraus lassen sich Erkenntnisse für neue medizinisch-biomimetische, also die Natur nachahmende Klebstoffe gewinnen. Gängige Techniken zur Fixierung von Weichgeweben in der Medizin sind Klammern und Nähen. Bei der cardiovaskularen Chirurgie und bei Eingriffen an Organen ist Kleben die bessere Technik.

Es gibt derzeit drei chemische Klassen medizinischer Klebstoffe: Cyanacrylate, Fibrin- und Gelatine-basierende Formulierungen. Cyanacrylat-basierende Klebstoffe bestehen aus Octyl- oder Butyl-2-cyanoacrylat. Ersteres bildet stabilere, biegsamere Klebverbindungen und verschließt Hauteinschnitte, oberflächliche Fleischwunden und Kopfhautwunden. Nachteilig wirken die Abbauprodukte, hauptsächlich Formaldehyd und Alkylcyanate, die Entzündungsreaktionen und Heilungsstörungen hervorrufen können. Das Protein Fibrin in Fibrin-basierenden Klebstoffen entsteht in der Blutgerinnungskaskade aus Fibrinogen und Thrombin. (…) Fibrinbasierende Klebstoffe finden sich u. a. in der Thorax- und kardiovaskulären Chirurgie. Allerdings sind die Klebeigenschaften nicht ideal und es besteht das Risiko der viralen Kontamination, da die Klebstoffe aus humanem Blut gewonnen werden. (…)

Geringe Wassermengen sind beim Klebeprozess notwendig, um Polymerisationen beispielsweise von Cyanacrylaten zu initiieren. Auf scheinbar trockenen Oberflächen sind unter normalen Umweltbedingungen mehrere Moleküllagen Wasser irreversibel immobilisiert. Klebstoffe wechselwirken mit ihren polaren Seitenketten mit diesen Schichten. Größere Mengen von Wasser führen dagegen zum Versagen von Klebeverbindungen. (…) Der Klebstoff wird in seiner Kohäsionskraft durch Quellung, Plastifizierung, Erosion und Hydrolyse geschwächt. (…) Eine entscheidende Stoffklasse bei biologischen Klebphänomenen sind Proteine. (…) Die gemeine Miesmuschel (Mytilius edulis) bildet dauerhafte, feste Klebeverbindungen in Wasser. Die Muschel haftet mit Byssusfäden über eine Plaque (Klebstoffpunkt) am Substrat. Die Plaque besteht hauptsächlich aus als Mytilus edulis foot protein (Mefp) bezeichneten Proteinen und ist das biologische Analogon zu einem technischen Klebstoff. (…) Eine zentrale Rolle spiel Mefp-1, das aus Folgen von zehn Aminosäuren besteht. Diese Dekapeptideinheit wiederholt sich etwa 75- bis 80-mal und enthält nach der Biosynthese enzymatisch modifizierte Aminosäuren wie Hydroxyprolin (Hyp) und Dihydroxylphenylalanin (Dopa). Die polaren Seitenketten schaffen ausgeprägte Wechselwirkungen zu polaren Molekülen auf den Substratoberflächen. Mefp-1 ist sowohl für die Adhäsion als auch für die Kohäsion verantwortlich und kann von der Klebfestigkeit mit einem Epoxid- oder Cyanacrylat-Klebstoff verglichen werden. (…) Gängige Methoden zur Gewinnung des Muschelklebstoffs basieren auf der Extraktion des Proteingemisches aus dem Byssusfaden. Für ein Gramm Klebstoff sind 10.000 Muscheln notwendig, was eine große Verschwendung natürlicher Ressourcen bedeutet. Zudem lässt sich damit reiner Klebstoff nicht isolieren. (…)

In den vergangenen Jahren wurden verschiedene Ansätze verfolgt, die Potenziale des Muschelklebstoffs und seiner Einzelkomponenten für den Menschen nutzbar zu machen. Hybridsysteme, basierend auf synthetischen Polymeren und der Dopa-Aminosäure, wurden für die Herstellung von Hydrogelen für medizinische Applikationen synthetisiert. Diese Gele zeichnen sich durch verbesserte adhäsive und kohäsive Eigenschaften aus. In allen Fällen wurde die Dopa-Einheit an Polyethylenglykol (PEG) geknüpft. Copolypeptide aus Dopa und Lysin entstanden und wurden durch Zugabe von Tyrosinase, Fe3+, H2O2 oder IO4 vernetzt. (…) Dopa-modifizierte verzweigte PEGs dienten zum Kleben von Schweinehäuten. Bei Zug-Scherproben zeigte die PEG-Dopa-Kombination eine 3,5-fach höhere Festigkeit verglichen mit Fibrin-fixierten Proben. Auf Miesmuschelprotein basierende Klebstoffe können ein alternativer Ansatz bei der Entwicklung neuer medizinischer Klebstoffe sein.

Vollständiger Artikel erschienen in “Farbe und Lack

Wenn man eine beliebige Person auf der Straße fragt, was im Leben wirklich wichtig ist, dann bekommt man genau die Antworten, die in jeder Frauenzeitschrift nachlesbar sind. Falls es Frauenzeitschriften noch gibt. Bei den gängigen, nichtrepräsentativen, aber vermutlich zahlreichen Umfragen zu diesem Thema steht in keinem einzigen Fall unter den Top-20-Antworten: “Mir ist Unterwasserkleben wirklich wichtig.” Man lehnt sich wahrscheinlich nicht zu weit aus dem Fenster, wenn man behauptet, dass dieser Punkt in Strassenumfragen nicht einmal zu den Top 50 der meistgegebenen Antworten gehört.

Allerdings hängt das ausschließlich mit dem Ort der Umfrage zusammen. Auf der Straße sind die Leute indifferent, gelangweilt und im Stress. Deshalb geben sie dort die Antworten, an die sie sich aus der Lektüre von Frauenzeitschriften zum Beispiel beim Arzt erinnern, um bloss keine Nachfragen zu provozieren und schnell weitergehen zu können. Wer mag schon Straßenumfragen von Frauenzeitschriften? Ändert man den Ort der Umfrage, dann verschiebt sich das Bild dramatisch zu Gunsten des Unterwasserklebens.

Aus dem Bauch heraus geschätzt 10 von 10 Befragten halten Unterwasserkleben für sehr wichtig, wenn man sie im Vorraum eines Operationssaals fragt, in dem Milzrisse operiert werden. Denn Milzrisse sind einigermaßen schwer zu nähen. Völlig abgesehen davon, dass Nähen ein widernatürlicher Prozess ist, mit der Nadel das eigentlich zu heilende Gewebe durchbohren und etwas (den Faden) dauerhaft hineinstecken, auf dass die Heilung noch komplizierter wird? Eigentlich absurd. Entsprechend sind der Biologie nähende Tiere bisher unbekannt und es spricht viel dafür, dass es trotz des hohen evolutionären Drucks, der auf der Fauna lastet, noch längere Zeit so bleiben wird.

Wenn die Natur irgendetwas verbinden möchte, dann klebt sie. Menschen können das zwar auch, zum Beispiel mit einer gerissenen Milz, aber ihre Klebstoffe sind bisher maximal zweite bis dritte Liga, schon handelsübliches Wasser macht Menschenkleber arge Probleme. Und Wasser findet sich ja überall, zwei Drittel des menschenlichen Körpers besteht draus. In der Bundesliga des Klebens mit klarer Tendenz zu Champions League hingegen spielt seit Jahren die Miesmuschel. Die Substanz, mit dem sie sich unter Wasser an irgendwelchen Felsen, Schiffen oder auch fast allen anderen Oberflächen festklebt, gehört zu den besten Klebern überhaupt und hält naheliegenderweise selbst Salzwasser aus.

Um diesen famosen Klebstoff benutzen zu können, müsste man allerdings 10.000 Muscheln sammeln, was schon deshalb nicht leicht ist, weil die Miesmuscheln unter Wasser verdammt fest kleben. Logisch eigentlich. Deshalb hat sich die weise Wissenschaft einfach bei der Miesmuschel abgeschaut, wie man mit der Kombination verschiedener Muschel-Eiweisse mit dem eher schwer vermarktbaren Sammelnamen “Mefp” den Klebstoff herstellt, der auch unter Wasser noch klebt.

Falls je ein Produkt auf Mefp-Basis in den Handel kommen sollte, empfiehlt sich entweder eine radikale Umbenennung, obwohl “Ponal” und “Uhu” auch nicht den Gipfel der Namensschönheit darstellen. Oder die Flucht nach vorn, zum Beispiel mit einem Claim wie “Mefp – heisst ungünstig, klebt super!”. Auf der anderen Seite gibt es ja auch Haushaltsprodukte mit dem Null-Namen “00 null null“, also irgendwie vier Nullen hintereinander, und wenn sich sowas verkauft, dann sollte ein Mefp-Kleber es auch schaffen können.

Natürlich ist die Miesmuschel abgesehen vom Naming dem Mensch noch weit voraus, sie hatte ja auch mehrere Millionen Generationen (Schätzwert) Zeit, den besten Klebstoff zu finden. Aber immerhin hat die Miesmuschel ihre besten Tricks preisgegeben und ermöglicht inzwischen Klebstoffe, die bei Flüssigkeitspräsenz ungefähr dreieinhalb Mal besser kleben. Dafür sollten wir der Miesmuschel dankbar sein, auch ohne Milzriss.


xD-Hallsensorik

 

Joystickwissenschaften

Positionsmesssysteme werden aus Verschleiß- und Konstruktions-Gründen immer häufiger als berührungslose Systeme ausgeführt. Magnetfeldsensoren, die das magnetische Feld oder die Flussdichte in einer Richtung erfassen, sind in diesem Bereich stark vertreten. Am Fraunhofer Institut für Integrierte Schaltungen IIS wurde in den letzten Jahren die neue HallinOne®-Technologie entwickelt, mit der es möglich ist, alle drei Raum-Komponenten des Magnetfeldes quasi punktförmig zu messen. Dies ermöglicht es, in eine völlig neue Klasse von magnetfeld-basierten Positionsmessystemen vorzudringen: die mehrdimensionale Gradienten-Messung.
[…]
Damit können komplexe mehrachsige Bewegungen erfasst werden. Neben schaltenden Anwendungen können mit der neuen Technologie auch sehr präzise Systeme zur Messung von Winkel- und Linearpositionen und Kombinationen von diesen aufgebaut werden.
[…]
Grundlagen magnetische Positionssensorik
Um mit einem Magnetfeldsensor Relativbewegungen eines anderen Körpers detektieren zu können, wird an dem bewegten Teil ein Magnet befestigt. Sobald sich dieser Körper relativ zum Sensor bewegt ändert sich damit das vom Sensor ‚gesehene’ Magnetfeld. Aus dem Wissen, um welche Art von Magnet und damit Feldverlauf es sich handelt, kann mit Hilfe des gemessenen Magnetfeldes die neue Position des Körpers bestimmt werden. Diese Aufbau erlaubt sehr einfache einachsige Winkel und Positionsmesssysteme.
Bei Verwendung eines 3D-Magnetfeldsensors erhält man 3 Magnetfeldgrößen womit maximal dreiachsige Positionsmesssysteme möglich sind. In der Mechanik gibt es aber sechs Freiheitsgrade: drei translatorische und drei rotatorische.

Um diese zusätzlichen Freiheitsgrade über ein magnetisches Positionsmesssystem erfassen zu können, benötigt man weitere linear unabhängige Messgrößen. An dieser Stelle können die Vorteile der HallinOne®-Technologie sehr gut genutzt werden. Diese Technologie bietet die Möglichkeit, auch Ableitungen der drei Magnetfeldkomponenten zu messen. Insbesondere ist es monolithisch auf einem Chip möglich, die Ortsableitungen der drei Magnetfeldkomponenten nach x und y zu bestimmen indem man mehrere gleichartige Sensoren in einem definierten Abstand auf dem gleichen Chip anordnet. Wenn man Ableitungen der ersten Ordnung realisiert, so ergeben sich mit den Absolut-Werten bereits neun unabhängige Messgrößen auf einem Chip. Damit können zumindest theoretisch bereits alle sechs mechanischen Freiheitsgrade eines Körpers bestimmt werden. Von Sensor-Seite her ist es sogar möglich, auch Ableitungen 2. Ordnung zu bestimmen, was die Anzahl der linear unabhängigen Messgrößen auf einem Chip noch weiter erhöht. Damit kann beispielsweise eine Unterdrückung homogener externer magnetischer Felder erreicht werden. Grundsätzlich können mit einer höheren Anzahl an Messgrößen auch weitere Störeinflüsse, wie z.B. mechanische Dejustagen erkannt und korrigiert werden.
[…]
Die HallinOne®-Sensor-Technologie kann in vielen ein- oder mehrdimensionalen Positions-Erfassungs-Systemen vorteilhaft angewandt werden. Durch die quasi punktförmige Erfassung aller 3 Raum-Komponenten des Magnetfeldes und deren Ableitungen, die vollständige Integrierbarkeit aller Sensoren in einem Halbleiter- Substrat und die verzerrungsfreie Erfassung des Magnetfeldes lassen sich nun Aufgaben der Positionserfassung mit Hilfe von Feldgradienten lösen. Dadurch werden völlig neue Anwendungen erst möglich bzw. können bisherige Lösungen deutlich verbessert bzw. vereinfacht werden.
Weiterführende Informationen
(PDF; 2,3 MB)

Anfang der 90er Jahre, ein Blick in das Zimmer eines Nerds, der nicht weiss, dass er ein Nerd ist oder was ein Nerd ist. Nicht einmal das Wort kennt er. An der Wand ein StarWars-Poster, im Regal fragwürdige Plastikfiguren, auf dem Schreibtisch ein C64 oder ein Amiga, von den Eltern gekauft mit dem Versprechen, nicht nur zu spielen, sondern auch “Textverarbeitung” für die Schule zu machen. Naja. In der Schule in Physik nimmt er gerade den Hall-Effekt durch. Er versteht schnell, worum es da geht, eine elektrische Spannung baut sich auf, wenn sich ein stromdurchflossener Leiter in einem Magnetfeld befindet, irrtierenderweise quer zur Richtung von Stromfluss und Magnetfeld. Interessant, aber nicht abendfüllend und für den Alltag mäßig interessant, jedenfalls nicht so interessant computerspielen, denkt der Nerd und vergisst den Hall-Effekt wieder.

Vor seinem Amiga steht eine Reihe seltsamer rotschwarzer Plastikkonstruktionen, der Nerd schließt sie nacheinander an den Compi an, wie man damals zum Computer sagte, die 90er waren nur mäßig kreativ. Der Nerd testet. Er testet Joysticks auf ihre Widerstandsfähigkeit, was mit dem Spiel “California Games” ausgezeichnet funktioniert, denn Ziel des Spiels ist, den Steuerknüppel so schnell und so heftig wie möglich hin und her zu reissen und dabei den Feuer-Knopf in höchster Frequenz zu drücken. Die Testergebnisse des Nerds stehen schnell fest, an Platz eins der Competition Pro, an Platz zwei der Quickshot II, die anderen gehen eigentlich alle sofort kaputt. Nerds können beachtliche Handkräfte entwickeln. Aber selbst der Competition Pro überdauert bei intensiver Benutzung maximal acht Wochen. Denn obwohl die Plastikschale robust ist – die stromführenden Kontakte zur Steuerung im Innern sind es eben nicht. Weil sie Kontakte sind, weil sie sich berühren und deshalb die ungeheure Nerdhandkraft hunderttausend Mal pro Tag aushalten müssen. Ab und zu, an heissen Sommertagen, hat er einen Traum, aber der erscheint ihm technisch unmöglich, man kann Joysticks einfach nicht überall hin mitnehmen.

Rissschwenk ins heute. Ab und zu denkt der Nerd noch an früher, an seine Joysticks, er hat sich sogar einen Atari 2600 gekauft, aus Wehmut, aber es ist nicht mehr das Gleiche. Und mit einem Mal prallt das Wichtige von damals – der Joystick – zusammen mit dem Vergessenen von damals – dem Hall-Effekt. Diese physikalische Erscheinung könnte plötzlich wieder eine Rolle im Nerdleben spielen. Positionsbestimmungen wie im Joystick funktionieren natürlich nicht nur mit schnell kaputtgehenden Kontakten, sondern inzwischen auch berührungslos. Zum Beispiel mithilfe des Hall-Effekts, indem man misst, wie und in welcher Stärke er auftritt. Die Sensoren dafür waren leider bisher empfindlich und ab und zu ungenau, weil sie nur in einer Ebene funktionieren, zum Beispiel von links nach rechts. Mit oben und unten sind sie also schon überfordert, man könnte hier auf Krampf ein politisches Wortspiel anschließen, aber man muss ja nicht.

Mit einer vor einiger Zeit entwickelten Technologie mit dem, sagen wir, angemessen innovativen Namen “HallinOne-Sensor”, lässt sich mit einem Chip aber die Position im dreidimensionalen Raum messen. Und zwar ausreichend präzise, dass es sogar einer der höchsten Anforderungen in der Technologie überhaupt genügt, also bei Joysticks in Nerdhänden mit California-Games-Erfahrung. Damit sind in den Joysticks drin dreidimensionale Positionsbestimmungen berührungslos ohne die ständig defekten Kontakte möglich – und das ist nichts weniger als famos. Denn Berührungslosigkeit vereinfacht wesentlich die Herstellung von wasserdichten Joysticks. California Games in der Badewanne, mit einem Joystick, der nicht kaputt geht, schon bevor die Fingerkuppen wellig werden – ein Traum wird wahr.


Pflanzliches Speiseeis mit Lupinenprotein und Rapsöl

 

Endlich Eisdemokratie

Eiscreme ist ein komplexes Mehrphasensystem aus flüssigen und festen Bestandteilen sowie Luft, dessen angenehmes Mundgefühl, Schmelzeigenschaften und Stabilität maßgeblich durch die als Emulgatoren und Stabilisatoren wirkenden Milch- und Eibestandteile bewirkt werden. Personen mit Unverträglichkeiten gegenüber Milch- oder Eibestandteilen finden auf dem Markt noch kein qualitativ entsprechendes Produktangebot auf Basis rein pflanzlicher Bestandteile. Fokussiert auf die Nachhaltigkeit der Zutaten und eine hohe ernährungsphysiologische Wertigkeit des Produkts ist es den Wissenschaftlern des Fraunhofer-Instituts für Verfahrenstechnik und Verpackung gelungen, ein neuartiges Herstellungsverfahren zu entwickeln. Dabei werden Milchproteine durch Proteine der heimisch angesiedelten Lupine angustifolius L. var. Boregine, Lactose durch Maltodextrine und Milchfett durch pflanzliche Fette, davon ein signifikanter Anteil Rapsöl, ersetzt.

Anspruchsvoll war besonders die Entwicklung des Proteinisolierungsverfahrens aus Lupinensamen unter Erhalt eines sensorisch ansprechenden, oxidativ stabilen und funktionell optimierten Proteinprodukts. Die Extraktion von geschälten, flokierten und entölten Lupinensamen, anschließende Proteinfällung und Sprühtrocknung des neutralisierten und pasteurisierten Produkts führen in diesem Verfahren zu einem Proteinisolat, das im Vergleich zu Magermilch- und Molkepulver gleichartige signifikant bessere Emulgiereigenschaften aufweist. Seine Emulgierkapazität ist mit 900 mL/g im Vergleich zu 360 bzw. 425 mL/g von Magermilch- bzw. Molkepulver mehr als doppelt so groß. Die Fraktionen α, β und δ- Conglutin des Lupinenproteins bewirken die außerordentlichen Stabilisierungs- und Emulgatoreigenschaften und können diese Funktion vollständig in der Speiseeismatrix übernehmen.

Das neuartige entwickelte Herstellungsverfahren für Lupineneis bewirkt zudem eine Stabilisierung der oxidationsempfindlichen ungesättigten Fettsäuren des Rapsöls. Das in Kürze auf dem Markt erhältliche hedonisch hoch bewertete Resultat ist ein cremiges Speiseeis mit geringerem Fett- und Zuckergehalt im Vergleich zu üblichen Produkten. Es ist frei von Milchproteinen, Laktose sowie Cholesterol.

Völlig anders als in der Zeit, als schlumpffarbenes Eis erfunden worden ist, gibt es seit Längerem einen deutlichen Trend hin zu naturbelassenen Lebensmitteln. Das ist gut und richtig. Aber dabei wird oft übersehen, dass nicht alles, was wir essen wollen, an Bäumen wächst, wo es von singenden Bauern in deiner Region auf handgeschnitzten Holzleitern unbehandelt in Weidekörbchen hineingepflückt und mit der Kutsche zum nächsten Biomarkt transportiert wird.

Vielmehr ist es so, dass einige Lebensmittel ohne die entsprechende Technologie überhaupt nicht existieren würden. Zum Beispiel Speiseeis. Schon die Konsistenz von Speiseeis ist ein mittleres Wunder der Lebensmitteltechnologie. Das kann jeder nachvollziehen, der mit acht Jahren mal seinen Lieblingskakao eingefroren hat und drei Stunden später wider Erwarten kein Schokoeis, sondern knirschigen Milchschnee ohne jeden Geschmack vorgefunden hat.

Aber die Herstellung von essbarem Eis braucht besondere Milchbestandteile und oft auch Emulgatoren, die beispielsweise aus Eiern gewonnen werden. Dagegen hat niemand etwas, außer denen, die keine Milch und kein Ei essen. Das ist der Grund, weshalb sommers viele Leute traurig an den langen Eisbudenschlangen vorbeilaufen – sie vertragen kein Eis, vor allem wegen Laktoseintoleranz, einer Milchunverträglichkeit. Die Eisschlangenteilnehmer ahnen oft nichtmal, dass in Deutschland geschätzt zwischen 15 und 25% damit zu kämpfen haben. Zumindest in unserem Sonnensystem ist Laktoseintoleranz sogar der Normalfall: unglaubliche 75% der Weltbevölkerung leiden darunter mehr oder weniger stark.

Eisessen – ein Luxus der laktosetoleranten Elite. Aber jetzt wird Eis ein bisschen oder sogar sehr viel demokratischer. Mit einem so komplizierten Verfahren, das bisher niemand entdeckt hat, schafft es das Fraunhofer Institut IVV vereinfacht formuliert, Milch und Ei durch Lupinen und Raps zu ersetzen. Zwei Pflanzen, die nebenbei gesagt auch noch wirklich attraktiv blühen und duften, das ist ja nicht ganz unwichtig. Man stelle ich sich vor, die europaweit angebaute Nutzpflanze der Zukunft wäre grotesk hässlich und würde nach Gerberei stinken wie etwa die Aasblume Rafflesia arnoldii. Hässliche Blumen haben es auch im echten Leben schwer.

Aber zurück zum Speiseeis: das lupinen- und rapsbasierte Ergebnis ist nicht nur gesünder, weil es keine tierischen Fette mehr enthält. Weil Lupinen und Raps ihren Cremigkeits-Job wesentlich besser machen als Milch und Ei, muss auch nur weniger Zucker und Fett zugesetzt werden. Und schließlich kann auch eine der benachteiligtsten Gruppen unter den Ernährungssonderlingen endlich Eisessen: die Veganer. Das entstehende Eis ist nämlich rein pflanzlich. Endlich Eisdemokratie.