Archiv für den Monat: Oktober 2016

Zivile Jet-Triebwerke | Produktion in China

So will China seine eigene Triebwerksindustrie aufbauen

China fertigt seit langem Düsentriebwerke für Militärflugzeuge. Einen nennenswerten zivilen Triebwerksbau gibt es bisher aber nicht. Genau diese Lücke soll der neue Staatskonzern AECC schließen. Das könnte für westliche Hersteller erhebliche Einbußen bedeuten.

Präsentation der Comac C919

Präsentation der Comac C919 Ende 2015: Das erste in China entwickelte Verkehrsflugzeug fliegt noch mit westlichen Triebwerken. Jetzt hat China einen Konzern gegründet, der auch zivile Jet-Triebwerke entwickeln und produzieren soll.

Foto: Comac

Die Gründung der Aero Engine Corporation of China, kurz AECC, war ein Paukenschlag. Ausgestattet mit 6,7 Milliarden Euro Stammkapital beschäftigt das Unternehmen vom Start weg 96.000 Mitarbeiter und soll dafür sorgen, dass China seine zivilen Passagierflugzeuge und auch Militärmaschinen nicht länger mit Triebwerken aus dem Ausland ausrüsten muss.

Der neue chinesische Triebwerkskonzern bündelt eine ganze Reihe chinesischer Unternehmen, die bisher militärische Triebwerke entwickelt und gebaut haben. Auch Zulieferer gehören zu dem Konzern.

Die enge Verflechtung mit dem chinesischen Flugzeugbau zeigt sich auch in der Besitzstruktur. Neben der Zentralregierung haben sich auch die beiden Staatskonzerne Aviation Industrie Corporation of China (AICC), ein auf den Flugzeugbau und Wehrtechnik konzentriertes Unternehmen, sowie der Flugzeughersteller  Commercial Aircraft Corporation of China (Comac) an dem neuen Triebwerkskonzern beteiligt. Comac hatte erst im November 2015 das erste komplett in China entwickelte Passagierflugzeug C919 präsentiert.

Zivile Triebwerke bezieht China bislang aus dem Westen

Doch warum investiert China nun so viel Geld in den Aufbau einer eigenen Triebswerksindustrie? China will unabhängiger werden vom Ausland. Seit den 1950-er Jahren werden in China militärische wie auch zivile Flugzeuge hergestellt, die aber über lange Jahre nur Lizenzproduktionen russischer Muster waren. Inzwischen entwickelt und baut China aber auch selbst militärische Kampf- und Transportflugzeuge. Zumindest für deren Triebwerke ist das Land aber nach wie vor auf russische Hilfe angewiesen. Die Militärflugzeuge China fliegen vor allem mit russischen Triebwerkern, die zivilen Maschinen mit westlicher Technik.

Das soll sich nun möglichst schnell grundlegend ändern.

Comac-Techniker mit einem Triebwerk für das chinesische Verkehrsflugzeug C919: Es wird noch wenigstens zehn Jahre dauern, bis China auf eigene Triebwerke für Passagierflugzeuge zurückgreifen kann.

Foto: Comac

 

Bei zivilen Jet-Triebwerken hat China bisher ganz auf westliche Motoren gesetzt. Das erste chinesische Düsenverkehrsflugzeug, die ARJ21-700, wird von zwei Triebwerken des amerikanischen Herstellers General Electric angetrieben. Das von Comac vorgestellte Passagierflugzeug C919 ist mit zwei Triebwerken von CFM International ausgestattet, einem Joint Venture von General Electric aus den USA und Snecma/Safran aus Frankreich.

Kaum Know-how für zivile Triebwerke

Allerdings muss AECC nun erst einmal erhebliche Entwicklungsarbeit leisten, denn Erfahrungen haben die chinesischen Ingenieure derzeit vorrangig mit Triebwerken für Militärjets. Doch Jet-Motoren für Militär- und Verkehrsflugzeuge haben wenig Ähnlichkeiten.

Militärische Triebwerke sind in der Regel auf eine höchstmögliche Leistung ausgelegt, die aber nur über kurze Zeit erbracht werden muss. Zivile Triebwerke dagegen müssen eine hohe Leistung über lange Zeit bringen. Wie stark der Unterschied tatsächlich ist, belegt das Beispiel des britisch-französischen Überschallflugzeugs  Concorde. Die beiden Betreiber, Air France und British Airways, flogen mit ihren kleinen Concorde-Flotten weit mehr Stunden Überschall im Jahr als die gesamte amerikanische Luftwaffe.

Die chinesischen Flugzeugbauer wollen unabhängiger werden von ausländischen Zulieferern und bauen deshalb eine zivile Triebwerkproduktion auf.

Foto: Comac

 

Die chinesischen Ingenieure müssen also bei der Entwicklung ziviler Motoren mehr oder weniger von vorne anfangen. Das bedeutet, dass es lange Jahre dauern wird, bis diese Motoren im Linienbetrieb von Fluggesellschaften fliegen werden. Unter Ausklammerung von Prototypen können das leicht zehn Jahre sein – in denen aber die großen westlichen Triebwerkhersteller ihre Motoren weiter verbessern werden.

Dass China trotzdem das kostspielige Vorhaben einer eigenen Entwicklung ziviler Triebwerke eingeht, hat wirtschaftliche und politische Gründe. Politisch verspricht sich China einen erheblichen Prestigegewinn, wenn das Land am Weltmarkt nicht nur als Flugzeugbauer auftritt, sondern diese Flugzeuge auch von chinesischen Treibwerken bewegt werden.

Zahl von Flugzeugen wird stark zunehmen

Wirtschaftlich spielt eine wesentliche Rolle, dass der hohe Importbedarf an Triebwerken auf die Dauer doch eine beträchtliche Belastung darstellt. China betreibt heute schon mehrere tausend Verkehrsflugzeuge. Und Boeing rechnet damit, dass in den nächsten 20 bis 30 Jahren weitere 6000 Maschinen hinzukommen werden. Nach Prognose der Unternehmensberatung Ascend aus London wird die Zahl von Flugzeugen weltweit bis zum Jahr 2035 um 81 Prozent auf 49.940 wachsen. Und von diesem wachsenden Markt wollen die Chinesen größere Anteile erobern.

Die Triebwerke selbst für ein nur zweimotoriges Verkehrsflugzeug kosten aber bereits mehrere Millionen Dollar. Die westliche Motoren, die heute die in China zugelassenen Verkehrsflugzeuge antreiben, lassen sich theoretisch durchaus nachbauen. De facto aber geht es bei den Triebwerken keineswegs nur um die Hardware, sondern genauso um die Software. Und die ist den Chinesen bisher weitgehend verschlossen geblieben.

Das sind die zehn größten Flugzeug- und Triegwerkhersteller der Welt.

Von Peter Odrich

 

Quelle: http://www.ingenieur.de/Themen/Flugzeug/So-China-eigene-Triebwerksindustrie-aufbauen vom 31.10.2016

 

Management – Unternehmensführung Mittelmaß oder Spitze?

Mittelmaß oder Spitze?

Von Hans-Peter Machwürth

Warum erzielen manche Unternehmen eine Umsatzrendite von 20 Prozent und andere nur eine Rendite von fünf Prozent? Und warum steigt der Umsatz bei einigen Firmen Jahr für Jahr um 15 Prozent, während andere mühsam fünf Prozent Wachstum erzielen? Und dies, obwohl sie in derselben Branche aktiv sind und ihren Kunden weitgehend dieselben Leistungen offerieren. Die Standardantwort auf diese Frage lautet: Es liegt an der Strategie.

Schaut man jedoch genauer hin, dann stellt man fest: Dass die Strategie stimmt, ist für den Erfolg eines Unternehmens zwar wichtig. Doch dafür, wie erfolgreich es ist, ist ein anderer Faktor entscheidend: die Unternehmens- und Führungskultur. Denn faktisch sind die strategischen Optionen der Unternehmen meist sehr begrenzt. Schließlich haben sie eine gewachsene Kultur, Struktur und Kompetenz. Zudem bewegen sie sich im selben Marktumfeld wie ihre Mitbewerber. Entsprechend gleichlautend klingen oft ihre strategischen Grundaussagen.

Erfolgsfaktor (Führungs-)Kultur

Die Unternehmen unterscheiden sich aber darin,

  • wie schnell sie aus Erkenntnissen die erforderlichen Schlüsse ziehen und
  • wie konsequent sie diese umsetzen.

Und dies ist eine Frage der Unternehmens- und Führungskultur.

Häufig beobachtet man in Unternehmen, dass deren oberste Führung strategische Ziele definiert. Zum Beispiel: Wir wollen in drei Jahren ein Drittel unseres Umsatzes mit Serviceleistungen erzielen. Daraufhin ermitteln die Führungskräfte mit ihren Mitarbeitern, was dies für deren Arbeit bedeutet. Zudem vereinbaren sie mit ihnen, was es zu tun gilt, damit ihr Bereich den nötigen Beitrag zum Erreichen der Ziele leistet. Doch dann kehren die Beteiligten zur Alltagsarbeit zurück und wenige Tage später sind die Vereinbarungen vergessen.

„Tolerierte Mittelmäßigkeit“ bekämpfen

Dieses Phänomen beobachtet man in vielen Unternehmen. Unter anderem, weil ihre Mitarbeiter im Alltag die Erfahrung sammeln: „Nichts wird so heiß gegessen wie es gekocht wird.“ Deshalb hat sich in ihnen eine Kultur der Inkonsequenz und „tolerierten Mittelmäßigkeit“ entwickelt. Das heißt, die Organisation erbringt keine Top-Leistungen mehr. Sie versinkt allmählich im Mittelmaß.

Eine Ursache hierfür ist: Viele Führungskräfte sind sich ihrer zentralen Aufgabe nicht ausreichend bewusst. Sie lautet: Sicherstellen, dass ihr Bereich seinen Beitrag zum Erreichen der Ziele des Unternehmens leistet. Dieser Aufgabe ordnen sich alle anderen Führungsaufgaben unter. Deshalb setzt der Aufbau einer Kultur der Konsequenz in Unternehmen in der Regel ein Umdenken der Führungskräfte voraus. Ihr Handeln muss sich stärker an der Maxime orientieren: Getroffene Entscheidungen werden umgesetzt. Zudem muss sich ihr Verhalten stärker an den Zielen und Vereinbarungen orientieren.

Oft verkünden Führungskräfte Ziele wie „Wir wollen der Serviceführer“ oder „…der Innovationsführer werden.“. Wenn daraus im Arbeitsalltag aber die nötigen Schlüsse gezogen werden müssten, dann kommunizieren sie ihren Mitarbeitern: „Ja, es stimmt, wir möchten dieses Ziel erreichen. Doch jetzt sind andere Dinge dringender …“ Sie definieren somit die Prioritäten neu und ihre Mitarbeiter verhalten sich entsprechend. Prüfen Sie deshalb als Führungskraft regelmäßig: Spiegeln sich in meinem Alltagshandeln und in meinen alltäglichen Entscheidungen die übergeordneten Ziele wider?

Die Mitarbeiter zum Erfolg führen

Zu den Kernaufgaben von Führung zählt es auch, gemeinsam mit den Mitarbeitern aus den übergeordneten Zielen deren Verhalten im Alltag abzuleiten. Zum Beispiel: Wie sollen künftig Angebote gestaltet und nachgefasst werden? Oder: Was tun wir, wenn wir einen Termin nicht halten können? Außerdem ist es eine Kernaufgabe von Führung, mit den Mitarbeitern Meilensteine zu definieren, die es auf dem Weg zum großen Ziel zu erreichen gilt; des Weiteren ist regelmäßig zu kontrollieren, ob sich ihr Bereich noch auf dem rechten Weg befindet. Sonst können sie letztlich nur das (Nicht-)Erreichen der Ziele konstatieren.

Spricht man mit Führungskräften hierüber, dann antworten sie oft: „Das tue ich doch.“ Fragt man jedoch nach, dann zeigt sich meist, dass sich ihr Führungshandeln auf folgende Mitarbeitergruppen konzentriert:

  • die Low-Performer – also die Mitarbeiter, deren Arbeitsverhalten und -einstellung nicht den Erwartungen entspricht, und
  • die High-Performer – also die Mitarbeiter, die fachlich fit und hochmotiviert sind und wenn nötig auch eigenständig neue Problemlösungen erarbeiten.

Den „fleißigen Bienen“ mehr Beachtung schenken

Wenig Beachtung schenken die Führungskräfte jedoch meist den „grauen Mäusen“, die kompetent und ausdauernd sowie ohne große Forderungen zu stellen, ihre Arbeit verrichten. Sich mit diesen Mitarbeitern zu befassen, besteht für die Führungskräfte auch kein Anlass. Sie funktionieren ja. Dabei bestünde hierzu durchaus Anlass. Denn die „grauen Mäuse“ – oder treffender formuliert „fleißigen Bienen“ – machen in der Regel circa zwei Drittel der Beschäftigten aus. Sie sind zwar nicht das Herz und Hirn, aber das Rückgrat jedes Unternehmens. Und sie leisten aufgrund ihrer Zahl und Zuverlässigkeit den größten Beitrag zum Erfolg jeder Organisation. Also sollten Führungskräfte diesen Mitarbeitern auch die verdiente Beachtung schenken – auch wenn es darum geht, die Leistung ihres Bereichs zu steigern.

Zum Steigern ihrer Leistung sind die „fleißigen Bienen“ in der Regel fähig und bereit. Unter drei Voraussetzungen:

  • Sie nehmen als Führungskraft die (Leistung der) „fleißigen Bienen“ überhaupt wahr,
  • Sie suchen den Dialog mit ihnen und
  • Ihre Anforderungen sind realistisch.

Anders ist es, wenn Sie als Führungskraft eine „fleißige Biene“ mit einer unrealistischen Forderung konfrontieren wie „Im kommenden Jahr müssen Sie 50 Prozent mehr Umsatz erzielen“. Eine solche Forderung wird als Affront erlebt. Nicht nur, weil die „fleißigen Bienen“ eine solche Zielvorgabe als Ausdruck mangelnder Wertschätzung ihrer bisherigen Arbeit erfahren, sondern auch weil sie wissen: Wenn ich dieses Ziel erreichen möchte, dann bedeutet dies für mich so viel Mehrarbeit, dass ich noch lange abends hier sitze. Die „fleißigen Bienen“ erleben somit eine solche Zielvorgabe auch als mangelnde Rücksichtnahme auf ihre persönlichen Interessen. Also beginnen sie (innerlich) zu rebellieren und zu opponieren. Das heißt, das Rückgrat der Organisation wird geschwächt.

Die nötigen Rahmenbedingungen schaffen

Anders reagieren diese Mitarbeiter jedoch, wenn Sie sich als Führungskraft mit ihnen zusammensetzen und sagen: „Frau Maier, Sie haben bisher von 100 Angeboten im Schnitt 18 in Aufträge umgewandelt. Eine gute Quote. Erachten Sie es unter gewissen Umständen als möglich, im Schnitt 20 von 100 Angeboten in Aufträge umzuwandeln?“ Dann antwortet jeder gute Mitarbeiter „unter gewissen Umständen: Ja!“.

Also stehen Sie als Führungskraft nur noch vor der Herausforderung, mit dem Mitarbeiter herauszuarbeiten, was die „gewissen Umstände“ sind. Dies können die unterschiedlichsten Dinge sein. „Wenn ich besser im Verhandeln geschult wäre, …“, „Wenn ich mehr Entscheidungsspielräume hätte, …“ „Wenn ich …“ Ihr Job als Führungskraft ist es, die nötigen Voraussetzungen zu schaffen. Tun Sie dies, können Sie sich auf die „fleißigen Bienen“ verlassen. Unter anderem, weil sie im Kontakt mit Ihnen die Erfahrung gesammelt haben: Mein „Chef“ fordert von mir nichts, was unrealistisch ist.

Ungeachtet dessen sollten Sie am Ball bleiben – also regelmäßig nachfragen „Frau Maier, wie läuft’s?“ und wenn Sie das Signal „Na ja“ bekommen, dem Mitarbeiter das Angebot unterbreiten „Lassen Sie uns noch mal zusammensetzen und …“. Dies ist wichtig! Denn selbst wenn die vereinbarten Ziele realistisch sind, dann setzen diese bei dem Mitarbeiter doch ein teilweise verändertes Verhalten voraus. Das heißt, Sie reißen ihn punktuell aus seiner „Komfortzone“. Und diese zu verlassen, fällt vielen „fleißigen Bienen“ schwer. Also benötigen sie eine Unterstützung.

Die „High-Performer“ stärker einbinden

Und hier liegt in der Regel das Problem. Spricht man mit Führungskräften hierüber, dann erwidern sie meist: „Zu einem so intensiven Betreuen so vieler Mitarbeiter fehlt mir die Zeit.“ Schließlich bilden die „fleißigen Bienen“ die Mehrzahl der Mitarbeiter. Teilweise lässt sich dieses Problem lösen, indem man den Führungskräften vermittelt: Auch ihr müsst mehr Selbstdisziplin im Arbeitsalltag zeigen. Denn noch immer gilt: Viele Führungskräfte delegieren (anspruchsvolle) Fachaufgaben nicht konsequent genug. Die Folge: Das Tagesgeschäft frisst sie auf und Führungsaufgaben bleiben liegen.

Dabei gäbe es Mitarbeiter, an die sie die Fachaufgaben delegieren könnten: die High-Performer. Hierdurch würden die Führungskräfte zwei Fliegen mit einer Klappe schlagen – sich selbst entlasten und den High-Performern, die sich herausfordernde Aufgaben wünschen, eine Chance geben, sich zu bewähren und weiter zu profilieren. Teilweise kann zudem das Betreuen und Anleiten der „fleißigen Bienen“ den High-Performern übertragen werden – zum Beispiel, indem Führungskräfte gezielt aus einem High-Performer und zwei, drei „fleißigen Bienen“ ein Arbeitsteam bilden.

Eine Aufwärtsspirale in Gang setzen

Auch diese Möglichkeit nutzen Führungskräfte zu selten, um die Mehrzahl der Mitarbeiter in Bewegung zu versetzen und die Mehrleistung zu erzielen, die dazu führt, dass ein Unternehmen zu den Top-Performern im Markt zählt. Dabei müsste dies das Ziel von Führung sein, denn hierdurch setzt sich eine Spirale nach oben in Gang.

Wenn eine Organisation zu den Top-Performern zählt, erwirbt sie sich mit der Zeit einen entsprechenden Ruf – in der Branche und im (Arbeits-)Markt. Das heißt, ihr haftet das Image „Die sind gut“ an. Dadurch wird die Organisation attraktiver für gute Bewerber. Also kann sie höhere Maßstäbe an neue Mitarbeiter stellen, wodurch sich das Leistungsniveau Schritt für Schritt nach oben verschiebt.

Diese Spirale in Gang zu setzen, ist gerade in Zeiten, in denen gute Fach- und Führungskräfte rar sind, wichtig. Denn Hand auf Herz, Für wen würden Sie als Bewerber sich entscheiden, wenn Sie die Wahl hätten: für den Champion im Markt oder für ein Unternehmen, das zur grauen Masse zählt?

Quelle: http://refa-blog.de/mittelmass-oder-spitze vom 19.10.2016

Puffer für Windstrom | Energiespeichertechnik

Ein Steinhaufen wird zur Batterie

In Hamburg werden Stromanbietern demnächst extra Steine in den Weg gelegt. Was das soll? Die Steine sollen überschüssigen Strom speichern, nachdem er in hochwertige Wärme umgewandelt wurde. Bei Bedarf wird die heiße Energie in Strom zurückverwandelt.

Siemens baut gemeinsam mit Forschern der Technischen Universität Hamburg-Harburg einen Speicher für überschüssigen Wind- und Solarstrom. Er besteht aus Natursteinen, die wärmeisoliert werden.

Siemens baut gemeinsam mit Forschern der Technischen Universität Hamburg-Harburg einen Speicher für überschüssigen Wind- und Solarstrom, der konkurrenzlos günstig ist. Die elektrische Energie wird in heiße Luft umgewandelt, die einen schlichten Haufen Natursteine auf eine Temperatur von mehr als 600 °C erhitzt. Damit die Wärme nicht verlorengeht ist der Speicher optimal wärmeisoliert.

Um die gespeicherte Energie bei Strommangel zu nutzen, wird Luft durch die Schüttung gepresst. Sie erhitzt sich und gibt ihre Energie in einem Wärmetauscher an einen Wasser-Dampf-Kreislauf ab. „Weil wir hier mit erprobten thermischen Komponenten und einer seriengefertigten Dampfturbine arbeiten, können wir innerhalb weniger Jahre eine praxistaugliche Lösung anbieten“, sagt Siemens Projektleiter Till Barmeier. Denn der erzeugte Dampf hat die gleichen Eigenschaften wie der in einem Kohlekraftwerk.

Besser als Wasser und Flüssigsalz

Wasser und flüssiges Salz speichern pro Volumeneinheit zwar mehr Energie. Doch Steine haben entscheidende Vorteile: Sie lassen sich im Gegensatz zu Wasser drucklos auf die gewünschte Temperatur bringen. Mit Salz wiederum lassen sich nur relativ niedrige Temperaturen erreichen, die ausschliesslich in teuren Spezial-Turbogeneratoren genutzt werden können.

Speicher für 36 Megawattstunden

Bereits experimentiert haben die Entwickler an einem wärmeisolierten Steinhaufen in Hamburg-Bergedorf. Sie wollten herausfinden, wie er sich erhitzen lässt und wie die gespeicherte Wärme wieder ausgekoppelt werden kann. Die gespeicherte Wärmeenergie wird dort noch nicht zu Stromerzeugung genutzt.

Der in Hamburg entwickelte thermische Speicher für Windenergie ist ein Gemeinschaftsprojekt von Siemens, Hamburg Energie und der TUHH. Das Bundesministerium für Wirtschaft und Energie fördert die Forschung.

Foto: Siemens

Nachdem diese Tests erfolgreich abgeschlossen werden konnten, steht jetzt der Bau eines kompletten Speichers auf dem Gelände der Aluminiumhütte Trimet in Hamburg-Altenwerder auf dem Programm. Im Herbst nächsten Jahres soll die Anlage in Betrieb gehen. Geplant ist ein Behälter mit einem Volumen von 2000 Kubikmetern. Darin lassen sich 36 MWh speichern. Das ist zwar nur der durchschnittliche Jahresstromverbrauch von zehn Haushalten. Doch der Speicher kann Dutzende oder gar mehr als 100 Mal pro Jahr aufgeladen und in Schwachstromzeiten wieder genutzt werden.

Batterien sind viel teurer

Die derzeit größten Puffer für überschüssigen Strom sind Pumpspeicherkraftwerke. Wasser wird in ein hoch gelegenes Becken gepumpt, wenn es an Verbrauchern fehlt. In Schwachstromzeiten stürzt es wieder zu Tal und treibt dabei Turbogeneratoren an. Eine weitere Möglichkeit ist die Zwischenspeicherung in Batterien, die allerdings sehr teuer sind. Trotzdem rentieren sie sich, denn die Netzbetreiber zahlen in Schwachstromzeiten schon mal mehr als einen Euro pro kWh. An der Börse kostet Strom dagegen meist weniger als vier Cent pro kWh.

Von Wolfgang Kempkens
Quelle: http://www.ingenieur.de/Themen/Energiespeicher/Ein-Steinhaufen-Batterie vom 19.10.2016

Zauberwatte gegen Ölpest: Wie aus einer Panne eine glorreiche Erfindung wurde

Eigentlich sollte Ernst Krendlinger bei seinem Arbeitgeber ein Rezept für Wachs geringfügig modifizieren. Doch irgendetwas lief gründlich schief. Produziert wurden zehn Tonnen einer faserigen Substanz, die an Watte erinnerten. Der Chemiker reagierte. Machte aus der Fehlproduktion ein Erfolgsrezept. Und könnte jetzt wohlmöglich den europäischen Erfinderpreis dafür bekommen.

Deurex Pure

Sieht aus wie Watte, hat es aber in sich. Deurex Pure bindet Öle aus dem Wasser.

Foto: Deurex

Denn aus der fehlproduzierten Watte ist Zauberwatte geworden, die hervorragend Öl und Wasser trennt. Und so bei Ölkatastrophen schlimme Umweltverschmutzungen verhindern kann. Wer verantwortlich für die Panne war? Man weiß es nicht. „Irgendjemand muss wohl die verkehrte Temperatur und den falschen Druck eingestellt haben“, sagte Krendlinger dem Magazin Wired. Jedenfalls geschah dies beim Chemieunternehmen Deurex in Elsteraue in Sachsen-Anhalt. Und auch, warum aus der Fehlproduktion ein Erfolgsrezept wurde: „Wir wollten diese riesige Menge nicht einfach wegwerfen, das hätte immense Kosten verursacht“, so Krendlinger.

„Danach hat es wieder Trinkwasserqualität“

Im Laufe verschiedener Experimente fand Krendlinger heraus, dass die seltsame Watte Stoffe wie Öl oder Diesel aufsaugt, während sie gleichzeitig Wasser abweist. „Soweit ich weiß, sind diese Eigenschaften weltweit einzigartig“, sagt der 61-jährige. Zauberwatte nennen er und sein Team das neu entdeckte hydrophobe Bindemittel mit dem offiziellen Namen Deurex Pure.

Á

Die Münchner Umweltorganisation One Earth – One Ocean (OEOO) hat in einem Pilotprojekt im Nigerdelta mithilfe des Ölbinde-Mittels Pure der Firma Deurex auf eigene Kosten ein ölverseuchtes Gewässer gereinigt. Damit wollte man demonstrieren, dass mit Pure eine Rekultivierung des verschmutzten Nigerdeltas relativ einfach und kostengünstig möglich ist.

Foto: OEOO

Die Zauberwatte ist recycelbar, umweltfreundlich, unlöslich in Wasser, witterungsbeständig und schwimmt immer oben, selbst vollgesogen mit Öl. Laut Deurex kann der Wachs das 6,55-fache seines Eigengewichts aufnehmen. 100 kg Deurex Pure können mehr als 600 l Öl aus verseuchtem Wasser binden. „Danach hat es wieder Trinkwasserqualität“, sagt Krendlinger.

Ungläubige Patentämter in München und Den Haag

Die so vollgesaugte Wachs-Watte kann man danach einfach wieder auswringen und erneut verwenden. „Natürlich ist das Wachs danach nicht mehr so saugfähig, aber drei- bis viermal kann es locker wieder verwendet werden“, sagt Krendlinger. „Der entscheidende Unterschied zu allen bisherigen Methoden ist eben, dass wir das Öl aus dem Wasser komplett und rückstandsfrei binden können.“

Á

Der Deurex-Pure-Anhänger auf Achse.

Foto: Deurex

Das wollte ihm das Patentamt in München nicht glauben, als er Deurex Pure zum Patent anmelden wollte. „Ich bin dann vorbeigefahren und habe es ihnen vorgeführt. Erst als ich einen Schluck des gereinigten Wassers getrunken haben, haben sie mir geglaubt“, berichtet der Erfinder. Auch beim europäischen Patentamt in Den Haag blitzte der Zufalls-Erfinder zunächst ab und musste demonstrativ sein gereinigtes Wasser trinken.

Nominiert zum Patent des Jahres

Inzwischen haben Krendlinger und sein Arbeitgeber Deurex das Patent für die Zauberwatte. Und von den europäischen Spezialanwälten wurde sie sogar als „Patent des Jahres“ nominiert. „Die Verleihung findet nächstes Frühjahr im Elysee-Palast in Paris statt“, berichtet Krendlinger. Wenn die Zauberwatte gewinnt, gibt es ein Preisgeld in Höhe von einer halben Million Euro. Was den den Zufalls-Erfinder sehr erfreuen würde.

Blatt der Schwimmfarn-Art Salvinia molesta. Ihre Haarenden sind in der Form eines Schneebesens miteinander verbunden. Dadurch kann die Pflanze hervorragend Öl absorbieren.

Foto: KIT

Ingenieure des Karlsruher Instituts für Technologie (KIT) haben nach dem Vorbild von Schwimmfarnen ebenfalls ein Material entwickelt, das kein Wasser aufnimmt, dafür aber große Mengen Öl. Anschließend lässt sich der Nanopelz einfach aus dem Wasser fischen – mit seiner Ölfracht. Noch befindet sich das Material namens Nanofur im Prototypstadium. Die Forscher arbeiten auf eine großtechnische Fertigung zu.

Von Detlef Stoller
Quelle: http://www.ingenieur.de/Fachbereiche/Umwelt-Recyclingtechnik/Zauberwatte-Oelpest-Wie-Panne-glorreiche-Erfindung vom 19.10.2016

Zunehmende Interessenkongruenz zwischen Arbeitnehmern und Arbeitgebern

Eine Analyse der Entwicklung der Leistungskennzahlen in den letzten Jahrzehnten zeigt, dass sie immer komplexer wurden. Wurde im Akkordlohn nur die produzierte Menge während der Fertigungszeit berücksichtigt, so bezog sich die Kennzahl bei der Gruppenarbeit auf die Anzahl Gutteile während der Anwesenheitszeit der Mitarbeiter in der Gruppe bis schließlich in ganzheitlichen Produktionsprozessen die Leistung auf die Gesamtanlagenverfügbarkeit (OEE) Bezug nahm.

Mit dieser stetigen Entwicklung, die von Arbeitgebern und Betriebsräten sowie den Arbeitgeberverbänden und den Gewerkschaften gemeinsam gestaltet wurde, war auch der Übergang vom Einzelakkord und der Einzelprämie hin zur Teamprämie eingeschlagen. Waren in den Teams zunächst nur Fertigungsmitarbeiter, die später auch indirekte Funktionen übernahmen – wie Transport, Werker-Selbstkontrolle und Wartung – so kamen schrittweise auch indirekte Mitarbeiter wie z. B. Instandhalter, Werkzeugmacher und Disponenten in die Teams. Bei der Leistungsmessung wurde bei den Fertigungsmitarbeitern praktisch immer auf die erarbeitete Zeit bzw. Menge zurückgegriffen.

Die Leistungsmessung der indirekten Mitarbeiter setzte nicht selten bei deren Kunden an. Die Idee dahinter: Wenn die Fertigungsmitarbeiter eine hohe Arbeitsproduktivität erreichten, weil der Werkzeugbau und die Instandhalter einen guten Service machten, die Standzeit und Qualität der Werkzeuge hoch war und die Ausfallzeiten gering, dann hatten die indirekten Mitarbeiter eine gute Leistung erbracht. Das gleiche Prinzip wurde auch bei Zielvereinbarungen mit Führungskräften erfolgreich angewandt: Führungskräfte wurden zu Dienstleistern, die – durch die Schaffung technischer, organisatorischer und fachlicher Rahmenbedingungen – ihre Mitarbeiter befähigten, hohe Leistungen zu erbringen.

Im Laufe dieser Entwicklung wurden die Arbeitnehmer-/Mitarbeiterziele immer komplexer und mit den Zielen der Arbeitgeber immer kongruenter.

Bezugsgrößen bei der Leistungsmessung (oben: Leistungskennzahl; unten: Entgeltgrundsatz/-form)

Bedenkt man, dass im Zuge von Industrie 4.0 neue Geschäftsmodelle entstehen und der After Sales Service an Bedeutung gewinnt, dann ist es interessant zu erfahren, wie in diesen Systemen die Leistung gemessen und vergütet wird.

Eckhard Eyer

Quelle: http://refa-blog.de/entwicklung-der-leistungskennzahlen vom 19.10.2016

Nie wieder Blendung: So clever ist der Scheinwerfer der Zukunft

achts auf der Landstraße, der Gegenverkehr blendet: Diese Gefahr dämmt ein Forschungsprojekt um Osram, Daimler und Fraunhofer Institut mit einem intelligenten Autoscheinwerfer ein. Seine 1.024 Lichtpunkte passen sich automatisch der Verkehrssituation an.

 

Jede der drei Leuchten dieses Scheinwerfers besteht aus 1.024 Lichtpunkten, die sich einzeln ansteuern lassen. Er verteilt das Licht je nach Verkehrssituation und erhöht damit die Sicherheit im Straßenverkehr.

Neu sind steuerbare Autoscheinwerfer nicht. In der aktuellen Mercedes-Benz E-Klasse etwa arbeiten LED-Scheinwerfer mit je 84 einzeln ansteuerbaren LED von Osram. Nun hat der Münchner Lichtspezialist aber noch Einen draufgesetzt. Mit Daimler, dem Scheinwerferhersteller Hella, dem Chipproduzenten Infineon und dem Fraunhofer Institut für Zuverlässigkeit und Mikrointegration (IZM) hat Osram einen LED-Chip entwickelt, der 1.024 Lichtpunkte eines Scheinwerfers individuell ansteuern kann. Und wozu?

Passgenaue Beleuchtung für jede Verkehrssituation

Der Scheinwerfer des Forschungsprojekts analysiert mit Sensoren kontinuierlich die Wetter- und Fahrsituation: Ist es Nacht? Regnet es? Wie ist der Straßenverlauf, wie schnell fährt das Auto, kommt Gegenverkehr? Für jede Situation stellt der Scheinwerfer seine jeweils 1.024 Lichtpunkte pro Lichtquelle optimal ein – vollelektronisch, also ohne mechanische Stellmotoren.

Der Scheinwerfer schaltet die Lichtpunkte aus, die den Gegenverkehr blenden würden. Dadurch kann der Fahrer auf dunklen Landstraßen kontinuierlich mit Fernlicht fahren.

Bei höherer Geschwindigkeit vergrößert der Scheinwerfer beispielsweise automatisch die Reichweite des Lichtkegels, im Stadtverkehr hingegen sorgt er für eine breitere Lichtverteilung, um auch den Bürgersteig auszuleuchten.

Der Clou: Das System erkennt Köpfe von Passanten und spart diesen Bereich gezielt aus. Dieses Prinzip bewahrt auch den Gegenverkehr vor Blendungen, wenn der Autofahrer nachts auf der Landstraße das Fernlicht anschaltet.

In den nächsten drei Jahren will Osram die Lichttechnik auf den Markt bringen. „Wir wollen diese neue Art hochauflösender LED-Lichtquellen nun zur Serienreife bringen und sehen großes Potential für die Anwendung im Fahrzeuglicht“, sagt Osram-Technikvorstand Stefan Kampmann.

Opel lenkt Scheinwerfer mit den Augen

Auch Opel forscht an intelligenten Scheinwerfern. Sie sollen sich dank Eye-Tracking-System sogar mit Augenbewegungen steuern lassen. Sieht der Fahrer einen verdächtigen Schatten auf der rechten Seite, folgt das Licht dem Blick. Wie das funktioniert, lesen Sie hier.

Von Patrick Schroeder
Quelle: http://www.ingenieur.de/Fachbereiche/Optoelektronik/Nie-Blendung-So-clever-Scheinwerfer-Zukunft vom 11.10.2016

Maschinen auf Molekular-Ebene Nano-Autos gewinnen Rennen um den Nobelpreis in Chemie

„Um Haaresbreite“ ist für diese Maschinchen noch zu groß: Mit gezielt steuerbaren Konstruktionen auf Molekular-Ebene schicken sich drei Wissenschaftler an, die Welt der Technik zu revolutionieren. Damit haben sie den diesjährigen Nobelpreis für Chemie gewonnen.

Nano-Auto

Das Foto zeigt ein winziges Nano-Auto auf einer Kupferscheibe in Bewegung. Das kleinste Auto der Welt besteht aus einem einzigen Molekül. Das winzige Fahrzeug ist nur rund einen milliardstel Meter (Nanometer) lang und wird elektrisch angetrieben. Das Nano-Elektroauto besitzt sogar einen Vierradantrieb. Der an der Universität Groningen lehrende Niederländer Bernard Feringa hat am 5. Oktober 2016 zusammen mit zwei weiteren Wissenschaftlern für die Entwicklung von molekularen Maschinen den Chemie-Nobelpreis zugesprochen bekommen.

Foto: Randy Wind, Martin Roelfs/Universität Groningen/dpa

 Für Design ist an diesem Fahrzeug kein Platz, Lack würde es schlicht zerstören, und die Reichweite ist extrem gering: Das Auto, das der Niederländer Bernard L. Feringa von der Universität Groningen 2011 entwickelte, würde auf dem Internationalen Auto-Salon in Genf wohl komplett untergehen. Dabei ist es eine Erfindung, die die gesamte Technik-Welt revolutionieren könnte: Es handelt sich um eine Maschine auf Molekularebene. Gerade mal einen Nanometer oder einen Milliardstel Meter misst das Gefährt, das sich mit Spannungsimpulsen antreiben lässt.

Preis für „Design und Synthese molekularer Maschinen“

„Auto des Jahres“ wird es wohl trotzdem nicht. Stattdessen macht es Feringa zum diesjährigen Chemie-Nobelpreisträger – gemeinsam mit dem Schotten Sir J. Fraser Stoddart (Northwestern University in Evanston, USA) und dem Franzosen Jean-Pierre Sauvage (Universität Straßburg). Die drei Forscher, die an verschiedenen Stadien derselben Entdeckung geforscht haben, werden für „das Design und die Synthese molekularer Maschinen“ geehrt, wie das Nobelpreis-Komitee am Mittwoch, 5. Oktober, in Stockholm bekanntgab.

epa05571578 Sir J. Fraser Stoddart, Board of Trustees Professor of Chemistry in the Weinberg College of Arts and Sciences at Northwestern University, walks through the campus in Evanston, Illinois, USA, 05 October 2016. Fraser Stoddart of the Northwestern University, Jean-Pierre Sauvage of the University of Strasbourg, France, and Bernard L. Feringa of University of Groningen, Groningen, the Netherlands were awarded the Nobel Prize in Chemistry by the Royal Swedish Academy of Sciences on 05 October 2016 cited their work 'for the design and synthesis of molecular machines'. EPA/TANNEN MAURY +++(c) dpa - Bildfunk+++

Sir J. Fraser Stoddart, einer der drei Nobelpreisträger in Chemie 2016, spaziert am 5. Oktober 2016 auf dem Campus der Northwestern University in Evanston (Illinois).

Foto: Tannen Maury/dpa

Den drei Forschern ist es gelungen, Moleküle so zu verbinden, dass sie sich in Relation zueinander bewegen können und das auch kontrolliert tun, wenn sie mit Licht oder anderen Formen von Energie stimuliert werden. Bis es soweit war, dass „Auto“-Rennen auf Kupferplättchen gefahren werden konnten, war es ein langer Weg.

Forschung aus vielen Einzelkomponenten

Den ersten Schritt machte der heute 72 Jahre alte Franzose Jean-Pierre Sauvage, als er 1983 eine frei bewegliche Kette aus zwei ringförmigen Molekülen schuf. Mithilfe eines elektrisch geladenen Kupferteilchens brachte er ein bogenförmiges Molekül dazu, sich in ein ringförmiges zu fädeln und mit einem weiteren bogenförmigen zu verbinden. Das Kupferteilchen entfernte er schließlich – fertig war die Kette, auch Catenane genannt. Sensationell daran: Es war keine starre Konstruktion, sondern die einzelnen Teile konnten sich in Relation zueinander bewegen. Dass das auch gezielt möglich war, bewies er mit seinem Team rund zehn Jahre später: Die Forscher ließen einen der Ringe durch Energiezufuhr kreisen.

Die Königlich-Schwedische Akamedie der Wissenschaften gibt am 5. Oktober 2016 in Stockholm die Nobelpreisträger 2016 für Chemie bekannt: Jean-Pierre Sauvage, James Fraser Stoddart und Bernard Feringa.

Ebenfalls in den 1990er-Jahren baute der heute 74-jährige Sir Fraser Stoddart mit seiner Arbeitsgruppe eine Art Achse, auf die eine Ringstruktur gefädelt ist. Diese springt zwischen zwei Andockstellen her, sobald dem Molekül Wärme zugeführt wird. Auf diese Weise lässt sich das Rotaxan genannte Teilchen gezielt beeinflussen und reagiert wie ein Muskel, der in Experimenten sogar dünne Goldplättchen biegen konnte. Das Nobelpreis-Komitee nennt diese Konstruktion auch „molekularer Fahrstuhl“ – eben weil es vor und zurück oder hoch und runter geht, je nach Ausrichtung und wie ein Schalter mit An- und Aus-Stellung.

Kollegen veranstalten Nanocar-Rennen

Passend zur Achse steuerte der inzwischen 65 Jahre alte Bernard Feringa 1999 schließlich einen molekularen Motor bei. Angetrieben mit ultraviolettem Licht drehten sich zwei Moleküle umeinander und sprangen dann wieder zurück in ihre Ausgangsposition – rasend schnell, bis zu 12.000 mal pro Sekunde. Der Schritt zum Auto rund ein Jahrzehnt später war da nicht mehr weit. Er musste mit seinem Team „nur“ noch vier Molekül-Motoren als Räder an die Achse setzen – fertig war das Nano-Rennauto. Mithilfe eines Rastertunnelmikroskops erzeugten die Piloten kurze Spannungsimpulse, um es in Bewegung zu setzen und über eine Kupferfläche fahren zu lassen.

Bernard Feringa: Gemeinsam mit zwei anderen Molekularforschern hat der Niederländer den Chemie-Nobelpreis 2016 erhalten.

Diese einmalige Gelegenheit ließen sich Kollegen auf der ganzen Welt übrigens  nicht entgehen und bauten ihre eigenen „Rennmaschinen“ – der beste Beweis, dass Forschung und Spiel untrennbar verbunden sind. Inzwischen gibt es Nanocar-Rennen, bei dem internationale Teams gegeneinander antreten. Mit dem „Windmill Team“ aus Dresden ist auch eine deutsche Gruppe dabei.

Grundlagenforschung mit dem Potenzial für Weltbewegendes

Abseits dieser sportlich-wissenschaftlichen Wettkämpfe gibt es noch keine konkreten Verwendungszwecke – aber das könne nur eine Frage der Zeit sein, zeigen sich die Wissenschaftler ihrer Forschung bewusst. „Ich fühle mich so wie die Gebrüder Wright, als sie das erste Mal flogen und die Leute sie fragten: ‘Wofür brauchen wir einen Flugapparat?’“, erklärte zum Beispiel Bernard Feringa. Auch das Nobelpreis-Komitee stellte klar, dass es sich zunächst um Grundlagenforschung handele, die es aber durchaus mit der Erfindung des Elektromotors 1830 aufnehmen könne. Damals habe niemand gewusst, was das solle, und heute sei er nicht mehr wegzudenken.

Für den Bau von Nano-Maschinen bilden die chemischen Konstruktionen der Nobelpreisträger bis heute die Basis. An der Rice University entstand auf dieser Grundlage das Nano-U-Boot.

Foto: Rice University

Dabei gibt es hinsichtlich der Nanomaschinen schon jede Menge Ideen, wie sie nutzbringend eingesetzt werden könnten. Sie reichen von Medikamenten, bei denen Nebenwirkungen einfach ausgeknipst werden, über die Umwandlung von Licht in Strom bis hin zur molekularen Elektronik mit biologischen anstelle von metallenen Bauteilen. Computerchips auf Basis der Rotaxane gibt es sogar schon – aus dem Labor des frischgebackenen Nobelpreisträgers Sir Fraser Stoddart. Seine Chips fassen zwar nur 20 Kilobyte, sind aber so klein, dass ihre pure Masse das ausgleichen kann. Nicht wenige sehen hier die nächste Revolution im Bereich der Computer.

2014 teilten sich übrigens auch drei Wissenschaftler den Chemie-Nobelpreis, darunter der Deutsche Stefan Hell. Dank ihrer Forschungen können heute mit Lichtmikroskopen Strukturen in lebenden Zellen untersucht werden, die bis vor wenigen Jahren als nicht darstellbar galten. Mehr dazu finden Sie hier. Und ein israelisches Forscherteam hat vor kurzem eine Nano-Lackierung vorgestellt, die Bakterienbefall von Metallteilen verhütet – ein Risiko für Implantat-Patienten.

Von Judith Bexten

Quelle: http://www.ingenieur.de/Themen/Forschung/Nano-Autos-gewinnen-Rennen-um-Nobelpreis-in-Chemie vom 11.10.2016

Satellitenmission TanDEM-X Neuvermessung der Erde

Erstes einheitliches Höhenmodell in 3D ist fertig

Sechs Jahre lang haben zwei Radarsatelliten im Rahmen der Mission TanDEM-X pausenlos Daten an die Erde gesendet. In dieser Zeit haben sie die komplette irdische Landmasse von 150 Millionen Quadratkilometer mehrfach überflogen. Nun ist aus dem gigantischen Datenwust ein extrem genaues globales Höhenmodell des blauen Planeten entstanden.

TanDEM-X und TerraSAR-X im Formationsflug

TanDEM-X und TerraSAR-X fliegen mit einer Geschwindigkeit von 28.000 km/h im Formationsflug durchs Weltall und erstellen ein hochgenaues globales Höhenmodell. Jeden Tag schaffen die beiden Satelliten ungefähr 15 Runden um die Erde. TerraSAR-X umkreist die Erde bereits seit 2007. Zwei Jahre später gesellte sich sein Zwilling TanDEM-X dazu.

Foto: DLR

 Nun ist sie wirklich fertig und verfügbar, die ganze Erde in 3D. 150 Millionen m2 Landoberfläche wurden vom Deutschen Zentrum für Luft- und Raumfahrt (DLR) in den vergangenen sechs Jahren exakt kartiert. Jetzt zeigen sich die Berggipfel und die Talebenen des Planeten in einer bisher unerreichten Auflösung. Die Höhengenauigkeit der Geländekarte liegt bei einem Meter.

„Neues Kapitel in der Fernerkundung“

„TanDEM-X hat ein neues Kapitel in der Fernerkundung aufgeschlagen. Die Technologie zum Radarbetrieb von zwei Satelliten im engen Formationsflug ist nach wie vor einzigartig – und war der Schlüssel für die hochgenaue Neuvermessung der Erde. Damit hat das DLR seine Vorreiterrolle unter Beweis gestellt und die Voraussetzungen für den nächsten großen Entwicklungsschritt in der satellitengestützten Erdbeobachtung geschaffen – für die angestrebte Radarmission Tandem-L“, sagte die DLR-Vorstandsvorsitzende Prof. Pascale Ehrenfreund.

Minimalabstand von nur 120 Metern

Die Höhengenauigkeit der Vermessung ist vor allem der hervorragenden Kalibrierung des Systems zu verdanken. Der Abstand beider Satelliten im Formationsflug wurde millimetergenau bestimmt. Die nahezu baugleichen, etwa 1,3 kg schweren Satelliten, umkreisen die Erde in einer Höhe von rund 500 km in einem Minimalabstand von nur 120 m.

Während der Überflüge wurden sämtliche Landflächen gleich mehrfach aufgenommen und zu Höhenmodellen verarbeitet. Zwischen Januar 2010 und Dezember 2015 haben die Zwillingssatelliten über das weltweite Empfangsnetz mehr als 500 Terabyte Daten zur Erde übertragen.

Datenvolumen auf über 2,6 Petabyte angestiegen

Seit rund zwei Jahren sitzen die Fernerkundungsspezialisten des DLR daran, aus der Datenflut ein systematisches Höhenmodell zu erstellen. Es sind spezielle Prozessierungsketten, die aus den Satellitendaten die finalen Höhenmodelle destillieren. Dabei ist das Datenvolumen inzwischen auf über 2,6 Petabyte angestiegen.

Á

Die “Nevada Test Site” war seit 1951 Schauplatz zahlreicher Atombombentests. Das Wüstenareal 100 Kilometer nordwestlich von Las Vegas ist übersät mit Explosionskratern.

Foto: DLR

„Die Verarbeitung dieser Daten war eine spannende Herausforderung für uns“, so Prof. Richard Bamler, Direktor des DLR-Instituts für Methodik der Fernerkundung. „Umso mehr faszinieren uns jedoch nun unsere ersten wissenschaftlichen Analyseergebnisse. Anhand des aktuellen Höhenmodells konnten wir zeigen, dass in einigen Regionen der Erde, Gletscher bis zu 30 Meter pro Jahr an Dicke im Bereich der Gletscherzungen verlieren.“

Über 1.000 Wissenschaftler weltweit nutzen die Missionsdaten

Mehr als 1.000 Wissenschaftler weltweit nutzen bereits die Daten der Mission. „Mit der Fertigstellung des globalen TanDEM-X-Höhenmodells erwarten wir nochmals eine deutliche Steigerung des wissenschaftlichen Interesses. Genaue topographische Daten sind essentiell für sämtliche geowissenschaftliche Anwendungen“, sagt Prof. Alberto Moreira, Direktor des DLR-Instituts für Hochfrequenztechnik und Radarsysteme, der die Mission leitet.

Die Chuquicamata-Kupfermine im Norden Chiles ist der zweitgrößte Kupfertagebau der Erde. Eine Grube gewaltigen Ausmaßes zeugt von den enormen Massebewegungen. Auf einer Fläche von etwa 13 km2 wurde das Gestein bis auf eine Tiefe von über 850 m abgebaut. Im Zentrum des Bildes liegt der Ort Calama ca. 10 km entfernt vom Tagebau.

Foto: DLR

Es sind vielfältige Anwendungsmöglichkeiten dieses supergenauen Höhenprofils der Erde denkbar. Das beginnt bei der Klima- und Umweltforschung, geht hin zum Vermessungswesen und endet bei der Infrastrukturplanung im Stadt- und Straßenbau.

„Das System Erde ist hochdynamisch“

Mit der jetzt erstellten 3D-Höhenkarte der Erde ist für die Satellitenmission TanDEM-X noch längst nicht Schluss. Künftig könnte die Nachfolgemission Tandem-L alle acht Tage ein aktuelles Höhenbild der gesamten Landmasse der Erde erstellen. Dynamische Prozesse könnten dann zeitgerecht erfasst werden. Moreira:„Das System Erde ist hochdynamisch, das zeigt sich auch in der Topographie. Mit regelmäßigen Updates könnten wir solche dynamischen Prozesse künftig systematisch erfassen. Das ist das primäre Ziel der von uns vorgeschlagenen Mission Tandem-L.“

Um Umweltverschmutzer auf hoher See und Feuerteufel, die Urwälder in Felder verwandeln wollen, kümmert sich übrigens Satellit Sentinel-3 A. Mehr dazu finden Sie hier.

Von Detlef Stoller
Quelle: http://www.ingenieur.de/Branchen/Luft-Raumfahrt/Neuvermessung-Erde-Erstes-einheitliches-Hoehenmodell-in-3D-fertig vom 11.10.2016