Schlagwort-Archive: Kosmologie

Dunkle Materie

Kraft und Spannkraft

Möglicherweise verweist ja das Problem der dunklen Materie auf ein Verhältnis, das bisher noch zu wenig beachtet wurde. Eine Vermutung. Ich bin nicht wirklich ein Mathe-Crack, aber ich denke, dass die Mathematik eines Bogenschusses nicht trivial ist oder wenigstens nicht so trivial, dass man sie nicht einmal in den Augenschein nehmen könnte.

Der Erfahrung nach hängt die Reichweite oder die Durchschlagskraft einer Armbrust oder eines Bogens von mehreren Faktoren ab. Da wäre einmal die Spannkraft, die das Gerät spannt, also beugt. Diese wiederum ergibt sich aus dem Material, und dem „Weg“ des Durchzugs, also wie stark „hohlt“ der Bogenschütze aus.

Ziemlich interessant finde ich darüber hinaus die Frage, was eigentlich die Länge oder die Größe des Bogens über seine Reichweite aussagt.

Jedem leuchtet ein, dass eine Spielzeugarmbrust aus Eschenholz, deren Bogen nur 10 cm breit ist, eine geringere Reichweite haben dürfte als ein Gerät aus dem selben Material, dessen Bogen aber 80 cm breit ist….

Dabei fällt auf, dass eine kleine Armbrust auch nur kürzere Pfeile verschießen kann, während ein entsprechend größer gebauter Bogen auch längere Pfeile mit einer höheren Reichweite verschiesst.

Wie weit würde ein Pfeil fliegen, wenn der Bogen, der ihn verschiesst, 8 Meter hoch ist oder 80 km? Und wie lang wäre hier der ideale Pfeil?

An dieser Stelle stellt sich die Frage nach der allgemeinen Relativitätstheorie. Könnte es sein, dass die Gravitation als resultierende „Pfeilkraft“ aus der Beugung auch von der Größe des Bogens bestimmt wird?

Also könnte es sein, dass rotierende Galaxien deshalb nicht auseinanderfliegen, weil sie als relativ große Objekte auch einen viel längeren Bogen „um sich herum spannen“, weshalb dann die resultierende „Kraft“ oder der „Kraftpfeil“ viel stärker ist oder mit einer stärkeren „Reich“ – Weite wirkt, als wenn man die resultierende Gravitation nur über die anwesende sichtbare Masse berechnet?

Demnach könnte es sein, dass nicht Massen die Raumzeit krümmen, sondern umgekehrt gedacht, dass die Ansammlung und Dichte von Massen ein Effekt von gekrümmten Zeiträumen sind….?

Also in dem Sinne formuliert: Die Krümmung ist das Primäre und die Massen sind das resultierend Sekundäre.

Oder noch anders artikuliert: Masse und Materie spannen den Bogen nicht, sondern sie sind das Ergebnis von Bogenspannung oder von verteilten Bogenspannungen als Emergenz aus dem Urknall.

Materie und Masse ist also das Ergebnis von gekrümmten Zeiträumen und nicht die Ursache….

Ein schwarzes Loch wäre dann ein Bogen, der ganz einfach total um sich selbst gespannt ist…..weshalb seine Pfeile alle in die eigene Mitte schießen. (als Licht) oder in die Mitte hineingezogen werden (Schwerkraft) :: das All „hohlt“ aus.

So wie ein großes Teleskop mit einem großen Durchmesser auch viel weiter schauen kann, so hat ein großer Bogen auch eine viel größere Reichweite.

Klingt eigentlich plausibel.

Die daran anschließende Frage oder Vermutung: Wenn man eine gespannte Armbrust mit Pfeil auf eine Wage legt, sollte sie genau so viel wiegen, als wenn ich sie im ungespannten Zustand auf die Wage lege, oder? (Ruhemasse Null)

Das ist doch sehr erstaunlich. Wie kommt es, dass man das Potential oder die potentielle „Reich“ – Weite einer gespannten Armbrust nicht wiegen kann? ( und nicht sehen kann)

Obwohl doch soviel „potentielle Reichweite“ in einer gespannten Armbrust enthalten ist…

Werbeanzeigen

Physik des Phönix

„Mancher vermeint, wenn verwest im verschlossenen Grabe das Rückgrad
Werde das menschliche Mark zur gewundenen Schlange gewandelt.
Doch dies alles empfängt des Geschlechts Anfänge von andrem;

Nur ein Vogel besteht, der selbst sich zeugt und erneuert,
Phoinix bei den Assyrern genannt. Nicht Kräuter und Feldfrucht
Nähren ihn, sondern der Saft von Amomum und Tränen des Weihrauchs.

Wenn er erfüllte die Zeit und fünf Jahrhunderte lebte,
Macht er ein Nest sich zurecht (im Wipfel der schwankenden Palme
Oder im Eichengezweig) mit Krallen und reinlichem Schnabel.

Wenn er sich Kassia dann und Ähren der öligen Narde
Untergelegt und Stücke von Zimt samt gelblicher Myrrhe
Setzt er sich oben darauf und endet in Düften das Leben.

Dann steigt neu, wie es heißt, vom Leibe des Vaters ein kleiner
Phoinix, welchem bestimmt, gleich viele der Jahre zu leben.
Wenn den kräftig gemacht und der Bürde gewachsen das Alter,
Hebt er des Nestes Gewicht von den Ästen des ragenden Baumes
Trägt in kindlicher Treue die eigene Wieg und des Vaters
Grab durch wehende Luft, und gelangt zu der Stadt Hyperions,
Legt er es hin vor dem Tor im geweihetem Raum Hyperions“

Ovid, Metamorphosen 15

„Ich kannte mal einen kleinen Jungen in England, der seinen Vater fragte: »Wissen Väter immer mehr als Söhne?«, und der Vater sagte: »ja«. Die nächste Frage war: »Papi, wer hat die Dampfmaschine erfunden?«, und der Vater sagte: »James Watt«. Darauf der Sohn: »- aber warum hat sie dann nicht James Watts Vater erfunden?« (aus: Gregory Bateson,
Metalog „Wieviel weisst du“?)

Bei Gregory Bateson blättern hilft immer, um in die stilistische Hochform philosophischen Fragens zu gelangen.

Was mich bei Botho Strauß immer irritiert hat: Ein gewisser Hang zur Verklärung der Dummheit. Ein unstimmiger Dummheitsbegriff. Es ist eine Berufskrankheit von Intellektuellen, dass sie sich Dummheit herbeisehnen, oder versuchsweise mit ihr flirten. Man versteht’s ja auch. Zu oft muss der Intellektuelle erfahren, dass es sich dumm scheinbar einfacher lebt und produziert. Aber es stimmt eben am Ende dann doch nicht. Dumm produziert schneller, aber eben nicht nachhaltig und letztlich immer mittelmäßig.
Leonardo, Bach,  Dürer, Wagner etc….das ist mit Dummheit nicht zu machen.

Trotzdem leben manche Dichter  heute in ständiger Sorge vor dem Allzugescheiten, vor dem allzu starken „Gewissen“ in ihren Artikulationen.

Es kursiert da ein Gerücht, dass große Kunst niemals aus Gewissen oder Intelligenz erwächst, sondern aus Instinkt und Intuition, einem Quäntchen Dummheit und aus einem  – irgendwie als „positive Idiotie“  – ettiketiertem Abseitsstehen.

Das Gerücht sagt: Ein Kunstwerk und ein Künstler dürfe im Moment der Schöpfungserregung sich selbst nie ganz durchsichtig sein – denn: Wo bliebe dann sein „blinder Rücken“, der sich „blind-sehend“ zur Zukunft wendet?

Das ist alles Quatsch. Die verlorene Unschuld des „Idioten“ ist schon seit mindestens 200 Jahren verloren. Es gibt kein zurück in die Idiotie.

John Searle sagt: „Die Kritik an der Rationalität will nicht sehen, dass sie sich selbst rationaler Mittel bedient. Weil jedes Geschäft der Kritik ein rationales Geschäft ist und ein Weltverhältnis vorraussetzt, das unzweideutig ist.“

Was sicherlich richtig ist: Man darf als Dichter und Künstler auch dumm sein. Nur eben nicht gewollt oder absichtlich. Die Frage ist also, auf welchem Niveau die Dummheit sich bespricht. Dichter und Künstler sind verpflichtet, Ihre Dummheit auf das höchst mögliche Niveau von Konkretion und Zeitgenossenschaft zu hieven.

Kubricks beste Film-Arbeiten hatten technologische Zeit-Höhe in Konkretion. Dafür musste er kein großer Physiker oder Ovid-Kenner sein. Aber die interessantesten Sequenzen in seinen Filmen wurden nicht „phantasievoll erfunden“ – sie haben sich „er-geben“ in Prozessen eines fragenden Such-Gangs innerhalb von tatsächlich obwirkender Technologie. Kubrik war ein meisterhafter Optiker und Film-Technologe.

Wilhelm Müllers Gedicht „Stundenglas und Weinglas“ hat große Konkretion und Klarheit des Wahrnehmens. Es ist „in der Sache“…sehr konkret, ohne „dunkel-raunenden“ Sprachbrei a la Botho Strauß.

Nur so erreicht die „gewünschte“ Dummheit  den angemessenen Grad von Zeitgenossenschaft, sozusagen einen hochtechnologischen Grad der Dummheit, die dem Text oder dem Kunstwerk seinen „blinden“ aber sehenden Rücken gibt;
Diese sehende Form der Dummheit findet man in Reinstform aber nur in der Ethymologie von Worten, in der absolut klaren Konkretion der techné, im technologischen Gesamtkunstwerk und im Mythos.

Der Berufsdichter heute schreibt zumeist nur halbdumm oder dreivierteldumm. Das heißt: Man schreibt Gelehrsamkeitsparaphrasen und versucht dabei  seine reale Dummheit zu verbergen hinter stilistischen Nebelkerzen oder im Mustopf irgendeines Formenkrampfes einer schlappen Lithurgie, die man mit der Laubsäge in sein steifes Textbrett sägt.

Man nennt das dann das „Raunen des Verborgenen“ oder „Musik“.

Das ergibt dann immer nur halbdumme oder dreivierteldumme Texte, deren Semantik nie das erforderliche Niveau der produktiven Dummheit in einem sehenden Sinne erreicht. Das sind dann die furchtbar schlechten Texte.

Warum hat die Dampfmaschine nicht James Watts Vater erfunden?

Zur Frage der historischen Überlieferung gehört die Frage nach dem Generationenverhältnis selbst. Wie funktioniert Historie? Wie funktioniert die Übergabe (Tradierung) von Generation X zur nächsten Generation Y?

Oft wird von den Alten beklagt, die Jugend würde sich von den Traditionen abwenden und ihr eigenes Ding machen.

Wie „richtig“ ist eine solche Diagnose?

Man kennt zu dieser Frage einen tiefer reichenden Aphorismus.
Thomas Morus sagte sinngemäß:

„Tradition ist die Übergabe der Glut, nicht der Asche.“

Wenn man diesen Ausspruch heute hört, muss man gezwungener Maßen zustimmen. Seit dem mythischen Prometheus als Feuerbringer wirkt eine absolut bruchlose Überlieferung.
Die Behauptung der „Postmoderne“, dass irgendein Faden der Überlieferung gerissen sei (Foucauld), ist in dieser Perspektive also unrichtig.

Aber warum klagen dann die Älteren so oft über die ach so traditionsvergessene Jugend? Wieso und warum gibt es den „Generationenkonflikt“, wenn das Feuer und die Glut über die Dampfmaschine, den Verbrennungsmotor, die Mondrakete, die Atombombe, dem Laser bis zum Fusionsreaktor eine klar funktionierende Überlieferung beweist? Welcher Faden soll hier gerissen sein? Welche Tradition wurde mißachtet?

Es kann ja durchaus sein, dass die „Glut“ – die übergeben wird, ebenso der „Mut“ ist. Oder eine Art von Wut. Eine Wut-Glut der Jungen gegen die Alten. Man spricht von glühender Wut. Insofern bleibt Thomas Morus Gedanke zur Überlieferung in Kraft. Die einzig sinnvolle und korrektive Anmerkung bestünde darin, zu erkennen, dass auch die „Wut“ von den Ahnen in die Jüngeren hinein-induziert wird. Ebenso der „Mut“ Dann ließe sich abwandeln:

Tradition ist die Übergabe von Mut und nicht von Asche. Oder anders:

Tradition ist die Übergabe der Wut und nicht der Asche.

Wenn man dass aber nun weiß, dann kann man sich vielleicht von bestimmten unbedachten historischen Automatismen befreien…in dem Sinne, dass mit der Glut eine Art „Sinn“ immer in Kraft bleibt – und sei es nur als Elektrizität, die vom Bernstein über die galvanischen Frosch-Schenkel bis zur Glühlampe und dem Laser übertragen wird.

Wie funktioniert ein gutes Lehrer-Schüler-Verhältnis?
Der jüngere Schüler übernimmt vom älteren Lehrer zunächst den Mut des Fragens, der Unruhe, des Zweifelns und der Neugier, aber er übernimmt nicht – unbesehen und automatisch –  die ganze Asche der zu Kenntnissen und Katechismen erkalteten Antworten.
Der Lehrer „unter“-richtet.

Ein guter Lehrer lehrt das Fragen und die Geschichte des Fragens und erst in zweiter Linie sehr vorsichtig gewisse vorläufige Antworten. Deshalb war Heidegger ein guter Lehrer. Sein Fragen lauteteten – Woher? – und Wozu? und Warum? Deshalb bleibt er eine Autorität, die nicht peinlich oder angemaßt daherkommt.

Thomas Morus Überlieferung der Glut im Verhältnis zur Asche beschreibt das Verhältnis zwischen der „gespeisten“ und „speisenden“ Glut in den Zeitläufen und den darin zugleich sich immer wieder – einäschernden – „Gewissheiten“. (von der Glut verzehrte Gewissheiten, zum Beispiel so genannte Paradigmenwechsel)

Damit wäre Überlieferung zwischen den Generationen ein Art
Vogel Phönix: Entflammtes in Wut oder in Glut oder in Mut.

Obwohl bei Ovid inter-essanter Weise nicht direkt von Glut die Rede ist, jedoch von „Düften“…der alte Vogel Phönix der Assyrer löst sich auf, – hinauf – zu etwas, das „in der Luft liegt“…das kann ein Verwesungsgeruch sein oder ein Gemisch aus den zimtigen Gewürzpflanzen oder Räucherpflanzen, Rauch oder beides, aber im Prinzip wird hier von thermodynamischen Aggregatwechseln gesprochen, der Vogel  – löst  – sich –  auf, er ana-lysiert sich, wird zum Hauch, zum Aroma, zum Rausch, zum „odoribus aevum“…im Lateinischen – der Phönix verwandelt sich zum VIELLEICHT der statistischen Thermodynamik – und zweitens überliefert dieser Vogel Phönix durchaus nicht nur Düfte, sondern auch das „Gewicht“ des Grabs seines Vaters….als sein eignes Nest, seine eigene Kinderstube, die er später wieder „vom hohen Baum durch die Lüfte“ trägt…in Synthese mit seinen Ahnen. Er bringt die „Asche“ seiner Kinderstube „vor das Tor.“

Hier dürften auch Astrophysiker die Tradierung von „Elementen“ bei den Brennprozessen in Sternen wiedererkennen, von der ersten Verdichtung – über das weitere Schalenbrennen – bis zur explodierenden Supernova, deren Elemente ja unsere Asche ausmacht, die Sternen-Asche, aus der wir gemacht sind. Der Stern „beginnt“ mit dem „leichten“ Wasserstoff…und später und peu a peu erreicht er die Phasen bis zur Eisen-Schwelle. Eisen ist – nach dem Stand heutiger Erkenntnis – genau die Schwelle, das letzte Element nach einer Reihe von Reaktionen, das durch klassische Fusionsreaktionen in Sternen erbrütet wird.  Alle „schwereren“ Elemente nach Eisen im Periodensystem, werden in „roten Riesen“ und extremen Novae-Prozessen (Explosionen, Auflösungen) erbrütet. (Nach dem Stand heutiger „An-Sichts-Sachen“ zum Thema „Brüten“ von Elementen in Sternen)
Es ist ein bis heute wenig beachteter Fakt, dass alles „Material“ unserer Erde älter ist als unsere eigene Sonne. Vor unserer Sonne muss es schon einmal eine große Sonne gegeben haben, die explodiert ist. Weil das Eisen, und alle Elemente auf der Erde nicht von der jetzigen Sonne stammen können. (Die ist ja noch nicht explodiert.)

Doch in der Asche glimmt die Stirn.

Ebenso durchlaufen der Start und der Wiedereintritt eines Space-Shuttles eine Art Vogel-Phönix–Zyklus.

Bei Ovid durchläuft der Phönix einen Zyklus von 500 Jahren. Da wäre man jetzt zurückgerechnet bei Albrecht Dürer in der Renaissance angekommen.

Generationen-Konflikte, Generations-Brüche, ergeben sich immer dann, wenn bestimmte kulturelle Lebensgewohnheiten und zunftbildenende Verabredungen durch allzu kreisschlüssiges Wiederholen in immer die selben Verhaltenskreisläufe „eingekreuzt“ werden.

Man kennt dazu ein Beispiel aus der Genetik.

Tierzüchter aber auch Tierschützer können ein Lied davon singen:
Bestimmte erwünschte Wesensmerkmale bei Hunden oder Katzen kann man nicht beliebig oft redundant in nachfolgende Generationen „einkreuzen“  weil es dann zu schweren Degenerationserscheinung der gesamten Erbmasse kommt.
Die Tiere leiden dann früher oder später an gesundheitlichen Inzucht-Problemen durch mangelnde genetische Varianz – sogenannte Qualzuchten mit monogenetischen Deffekten. (verlegte Atemwege, Anfälligkeit für bestimmte Krankheiten, Knochenanomalien etc…)

Je tiefer die „reinrassige“ Angora-Katze in das Sofakissen hineingezüchtet wird, also quasi selbst zum Sofakissen umgeformt wird, desto höher steigt die Wahrscheinlichkeit für eine generell krankhafte und In-Zucht-geschädigte Konstitution der Tiere.

Je „reiner“ die „Rassigkeit“ (sog. Aus-Stellungs-Erfolge) von Züchtern herausgearbeitet werden soll, desto mehr verliert die genetische Gesundheit des Gesamtorganismus über mehrere Generationen innerhalb eines schleichenden Prozesses. Eben deshalb die genetische Varianz verloren geht.

Die Natur wehrt sich gegen das monogenetische, monothematische  Inzüchten des Genpools (Das Heraus-Stellen gewisser „Aus-Stellungs-Erfolge“) irgendwann mit Abbau oder Degeneration.

So kann man sich das auch bei Traditionen, Kulturen, Sprachen etc…denken:

Wird eine bestimmte Tradition oder ein bestimmtes Brauchtum oder eine kulturelle Verabredung oder eine Verhaltensgewohnheit von Generation zu Generation allzu kreisschlüssig monothematisch immer wieder in das eigene Sofakissen der bewährten Gewissheiten und Katechismen eingekreuzt,
leidet der ganze Überlieferungszirkel spätestens mit der 6. oder 7. Generation irgendwann an  monogenetischen Defekten des Denkens, die bis zur intellektuellen Schwerstbehinderung ausarten kann. Das heißt – der Kulturkreis bekommt In-Zucht-Schwäche, wird brüchig. Es verliert seine genetische Varianz.Es kann zu habituellen oder organischen Katastrophen kommen

Andererseits: Überlieferung von Fertigkeiten in handwerklichen Zünften ist in jedem Fall wünschenswert. Ein klassischer Geigenbauer in der 7. Generation ist sicher einer der besten Geigenbauer der Welt…und deshalb auch unverzichtbar – aber er ist extrem darauf angewiesen, dass sich der Bedarf und die Definition für die Art seiner Geigen nicht allzu plötzlich ändert. Wie gut wäre er vorbereitet, sollte sich der Bedarf bei bestimmten Musikinstrumenten plötzlich verschieben?

Wird er den „Synthesizer“ oder die „Hammond-Orgel“  erfinden? Oder das Grammophon?

Warum wurde der Syntheziser oder die Hammond-Orgel von Elektronikern und Bastlern erfunden, aber nicht von klassischen Instrumentenbauern?

Warum wurde das Grammophon nicht von einem Dirigenten erfunden?

Warum wurde das Grammophon überhaupt erfunden?

Warum war Kolumbus der Sohn eines Wollwebers und nicht ein Kapitän
in 5. Generation?

Genetiker wissen heute, dass die Epigenetik äußerer Umwelteinflüsse mindestens 50 Prozent der Überlieferung ausmacht und die Varianz ebenso beeinflusst wie das Immunsystem und die Auslese. Wird Epiginetik und Varianz-Streuung ausgeschlossen durch allzustarke Abdichtung innerhalb eines sehr hermetischen Überlieferungszirkels, kommt es zu monogenetischen Deffekten.

Das Risiko durch monogenetische Tradierungen kann man gelegentlich auch spüren in geschlossenen Akademien, in bestimmten Forschungszirkeln, Universitäten und auch in Literatur-„Kreisen“.

Wo Menschen sich ausschließlich in immer wieder den selben verabredeten Paraphrasen von Codes und Gegencodes bewegen, (in den selben Retourkutschen aus Spruch und Widerspruch, die selben Abgrenzungs/Zustimmungs-Mechanismen ) kommt es zuerst zu einer Art von Vereins-Stickluft, einschließlich der berühmten deformation professionelle und schließlich zum informellen Totalversagen des Gesamt-Organismus. Das heißt: Die Akademien und Universitäten und „Zirkel“ ersterben und vertrocknen in leblosen Diskurs-Spinnweben und in Zitate-Seilschaften. Sie dienen nur noch sich selbst als Seilschaft oder zur Versorgung im leeren Networking der Vernetzung, aber sie dienen nicht mehr der Erkenntnis oder dem Fragen in ein Offenes hinaus.

Die Seilschaften besteigen keine Berge mehr. Diese Zirkel können nichts mehr von außen empfangen oder nach innen einlassen und trocknen schließlich ganz aus. Sie verblöden zu intellektuellen Qualzuchten in monothematischen Redundanzen.

Die Spinnen haben irgendwann das Haus verlassen, oder sind vertrocknet, weil nichts mehr an-zufangen ist. Alles leergefangen, die Luft ist tot, Türen und Fenster werden nicht mehr geöffnet. Zurück bleibt leeres Gehänge. Niemand spinnt mehr.

Eben deshalb waren kulturelle Generationen-Auf-Brüche in den vergangenen Zeiten notwendig und immer folgerichtig. Generations-Aufbrüche öffnen allzu stark geschlossene Verabredungskreisläufe oder Brauchtumsgewohnheiten und vermeiden die kulturelle Inzucht samt intellektueller Schwerstbehinderung und monothematischer Deformation.

(Auch wenn sich heutige Eltern allzu tolerant geben; die Kinder finden immer etwas, womit sie die „Alten“ ärgern können und sei es nur, indem diese Kinder heute eine provozierende Spießigkeit an den Tag legen. (Jetzt extra wieder total angepasst mit Trachtenjanker, Kochkurs, Bionade und Golfplatz-Abo, obwohl man erst 22 Jahre alt ist.)

Aber die Formulierung: „Tradition ist die Übergabe der Glut/Mut/Wut  und nicht der Asche.“  bleibt deshalb sehr menschen-sinnvoll und immer noch nicht in der Tiefe verstanden.

Denn „die Glut“ bezeichnet ja auch das Sehen, und die „Sicht“ des Vogels Phönix. Also die Tatsache, dass der Vogel Phönix Sicht hat und „gesehen“ werden kann.

Zu den unbefragtesten Asche-Floskeln der letzten 150 Jahre gehört auch die Behauptung: Mit dem Vordringen der modernen Wisschenschaft könne sich der Mensch nicht mehr einfach so auf seine „Sinne“ verlassen, wenn er die Welt wahrheitsgemäß erkennen oder verstehen will.
Alles sei ja  – ach so0000 abstrakt geworden.

Übersehen wird bei dieser unbefragten Asche-Floskel jedoch immer, dass dieses Vordringen der modernen Wissenschaften von Menschen betrieben wurde, die zunächst auch immer nur ihre Sinne angestrengt hatten – in dem Sinne – wie ein „Sinn“ nur „Sinn“ macht, wenn es einen „Sinn“ gibt.

Mathematik und jede Abstraktion gründet in den Sinnen, die einen „Sinn“ geben innerhalb von Besonnenheit. Deshalb ist die Rede: Der Mensch könne sich seit der modernen Wissenschaft nicht mehr einfach so auf seine Sinne verlassen, ein sinnloser Stumpfsinn. Und bezogen auf die achso abstrakte und unsinnliche Atom-Bombe sogar eine Frechheit.

Bei der Sondierung abendländischen Denkens fällt auf, dass ein Mißverhältnis herrscht zwischen einer hochgradigen Verehrung gewisser Köpfe der Vergangenheit und Ihrem Ernstnehmen als Impulsgeber für Problemlösungen. So kennt jeder heute als Beispiel Albert Einstein, man weiß beinahe alles über ihn, man verehrt ihn, man zitiert ihn sogar, und er ist sogar eine Art Pop-Figur.

Wenn Einstein schreibt: „Probleme lassen sich niemals mit dem selben Denken lösen, das in die Probleme hineingeführt hat.“ – dann ist das doch bedenkenswert. Eine Inzucht-Warnung. Dann heißt das so viel wie: Probleme sind Folge von Denkmentalitäten und Methoden, die in allzustarker Wiederholung zu gewissen Inzucht-Deformationen geführt haben.

„Tradition ist das Überliefern der Glut und nicht der Asche.“

Zugeben, nach 1945- 1946 sah es so aus, oder es gab Gründe, keine Gluten mehr überliefern zu wollen. Das war einsehbar. Aber es ändert ja nichts daran, dass die Moderne im 20igsten Jahrhundert eine in ihrer Helligkeit nicht mehr zu überbietende Glut und eine Wut überliefert hat, die man schwerlich ignorieren kann.

Die Philosophie der letzten Jahrzehnte aber hat Asche geredet.

Deshalb bleibt ein großes Problem bis heute das große Originelle, das sich vor das Originale schiebt. Der originelle Schreiber, artikuliert originell, weil er sich als „originelles“ Individuum vor der „Leserschaft“ legitimieren muss. Er hat etwas „Neues“ zu bringen. Das heißt aber in Wirklichkeit, er produziert immer schon Asche, noch bevor er überhaupt die Glut oder die Wut oder den Mut der Überlieferung in seinen Text einlässt. Ironien sind Asche. Paraphrasen sind Asche. Syntaktische Löckchen sind Asche und schlechter Stil.

Sogar „Kenntnisse“ und angelesene Fakten sind Asche, solange sie nicht die Glut und den Mut der Überlieferung mit hinübertragen. Legitimität wird dann durch Pseudo-Neuheit (Originellheit) von Artikulation erkauft.

Zu einem sehr hohen Preis: Dem Aschedenken und dem Ascheschreiben. Deshalb werden „originelle“ Begriffe erfunden, oder „originelle Bezugsrahmen“,  die sich dann vor das Originale schieben. („ab origine“ – von Beginn an)

Selbst dort, wo man scheinbar rückbezüglich mit irgendeinem Homer-Zitat beginnt, bleibt das meiste im Paraphrasenkitsch eines „Philsophierens als ob.“

Das heißt, man redet in paraphrasenhaften „originellen Wendungen“ nur noch von der Asche – innerhalb der Asche  – aber man kommt innerhalb der Asche nicht mehr zur Glut, zur Kohle, zum Holz, zum Funken, ….

Warum hat das 20igste Jahrhundert Wittgenstein hyperventiliert und Schelling unbeachtet gelassen? Warum musste da ein „origineller“  Wittgenstein „neu“-reden, man hätte doch die Schelling-Schriften einfach nur mit den neueren Erkenntnissen der Relativitätstheorie und mit Goedel konfrontieren können…oder mit Adam Müller oder mit Aristoteles…aber gut…das sind so die Um-Wege..

Man generiert heute nicht viele Fans, wenn man sagt, dass Dichtung und „Philosophie“ der vergangenen 30 bis 50 Jahre – wenigsten hier im deutschsprachigen Raum eher im Bedienmodus von Simulation betrieben wurde; noch schlimmer der Gedanke, dass in den Simulatoren vielleicht selbst nur Simulationspuppen saßen, die man an Stelle von echten Philosophen und echten Dichtern in die Sessel der Simulatoren geschnallt hatte.
Die Sprache war diesen augenlosen aber stark vernetzten und verdrahteten Simulationspuppen ein Flugsimulator mit vielen bunten Knöpfen, die blinkten und piepten und flackerten. Und Ihre Hände aus Schaumgummi patschten in die Tastatur.
Und dann blinkte und fiepte es um so stärker. Aber niemand flog. Kein Phönix.

 Wirklich und höchstselbst und in echt – wollte niemand nach irgendwohin hinaus…

Also saß man (oder etwas) in den letzten 50 Jahren in Philosophie-Simulatoren und simulierte Philosophie, man saß in Dichtungs- und Poesie-Simulatoren und simulierte „Poesie“.  Niemand wollte sich auf das denk-sprachliche Apollo-Programm eines echten poetisch-wissenschaftlichen Erkenntnis-Unternehmens einlassen.
Na gut, aber Raumfahrtprogramme brauchen im Vorfeld auch die Puppen und die Simulation – Insofern: Alles richtig, alles gut.

Es ist nicht ausgeschlossen, dass bestimmte Bewegungen vergangener Jahrhunderte auf monogenetische oder monothematisch Deffekte verweisen. Verurssacht durch eine mangelnde Einsicht in den dauernden Überlieferungsgang von Analyse nach Synthese.

Gut möglich, dass gewisse Konflikte in Zukunft stark beeinflusst werden von der Art und Weise, wie ein jeweiliger Kultur-Zirkel sein Verhältnis zur Überlieferung definiert. Deshalb kann man wohl sagen, dass immer dort, wo sich räumliche Fronten in „Gegenwart“ auftun, in Wirklichkeit noch etwas anderes vor sich geht: „Gegen-Warten“ sind Konflikte, in denen verschiedene Definitionen aufeinander stoßen und einen Streit über die Frage austragen, was eigentlich Überlieferung ist.

Zwei Reiche wechselwirken bis heute in Georg Büchners Stück Leonce und Lena. Das Reich Pipi (Lena) und ein Reich Popo (Leonce).
Jederzeit lesbar, damals wie heute, als fühlbare Allegorie für Kleinstaaterei.

Hatte Charles Percy Snow in den 50iger Jahren noch von „2 Kulturen“ gesprochen, muss man heute mindestens 85 Kulturen oder mehr annehmen.
Die Lage hat sich verschärft. Die neue Metternichzeit zeigt sich heute in einer Kleinstaaterei der Sprachen, Kulturen, Zeichen, und Codes..
Ebenso wie in den tausend kleinen Imperien eines Redens „als ob“.

Zu den schönsten aller wiederkehrenden Komödien der letzten 50 Jahren gehören 45 minütige Podiumsgespräche, nach-23-Uhr-Talks im Radio oder sogenannte „Arbeitsgruppen“, in denen „Künstler“ und „Wissenschaftler“ ein bisschen so tun, als interessierten sie sich für einander. Als sei das anliegende Problem irgendwie zu fassen, wenn man „mal so ein bisschen drüber redet.“

So gehört es seit Jahren zum guten Ton in Salongesprächen, wenn man als „Künstler“ hier und da Worte einstreut wie „Unschärferelation“ oder „Quantenphysik“ oder „Hirnforschung.“ Kann nicht schaden. Hört sich immer up to date an.

Ebenso kann es nicht schaden, wenn man als Wissenschaftler sich gelegentlich entzückt zeigt von einem „herrlich vielschichtigen“ Kunstwerk. Dann fühlen sich alle im Salon sehr problembewusst irgendwie und irgendwie echt auf der Höhe der Zeit – irgendwie.

Was dabei herauskommt: Esotherik im schlecht vernutzten, im schief gelegten Sinne des Begriffs. Dann sitzen Künstler und Wissenschaftler im Dunst imaginärer Räucherstäbchen auf einer mentalen Lamafelldecke in sprachlicher Yoga-Stellung (die grammatisch-syntaktischen Beine hinter dem Hals) und tauschen im 45 Minuten Talk An-Sichtssachen und Gelehrsamkeiten aus.

Die schlecht vernutzte, weil seit 200 Jahren schief verstandene Esotherik vernebelt als Denk-Gift die hirnforschenden Gehirne ebenso wie die quantenphysikalischen Poesie-Interessenten.

Die Unschärferelation* als das gern genommene Esotherik-Räucherstäbchen für
vernebelte Gesprächskreise und Arbeitsgruppen zum Thema Kunst und
Quantenphysik.

Deshalb zurück zu Leonce und Lena von Georg Büchner:

Reich Pipi und Reich Popo…was sind die beiden Reiche heute?

Reich Pipi Ort / Reich Popo Impuls

Reich Pipi Bumsdings/ Reich Popo Dingsbums

Reich Pipi Identität/ Reich Popo Zweifel

Reich Pipi Lyrik/Reich Popo Mathematik

Reich Pipi Vielfalt/ Reich Popo Statisitk

Reich Pipi Analyse/ Reich Popo Synthese

Reich Pipi Kunst/ Reich Popo Leben

Reich Pipi JA / Reich Popo NEIN

Reich Pipi Emphase / Reich Popo Extase

Reich Pipi von Dichter X / Reich Popo von Wissenschaftler Y

Reich Pipi Ansichtssache x/ Reich Popo Ansichtssache y

Reich Pipi von Philosoph X / Reich Popo von Philosoph Y

Liste kann vervollständigt werden.

Die größte Katastrophe – in der Literatur  – für die Literatur – ist der sogenannten  Literatur bisher erspart geblieben: Dass irgendjemand einmal auf die Idee gekommen wäre, die Einsichten dieser Literatur auf die Literatur selbst anzuwenden.

Leonce: „Mein Leben gähnt mich an wie ein großer weißer Bogen Papier, den ich vollschreiben soll, aber ich bringe keinen Buchstaben heraus.“

„Mein Kopf ist ein leerer Tanzsaal, einige verwelkte Rosen und zerknitterte Bänder auf dem Boden, geborstene Violinen in der Ecke, die letzten Tänzer haben die Masken abgenommen und sehen mit todmüden Augen einander an.“

Die endgültige Definition für das rätselhafte deutsche Wort „Kitsch“:

KITSCH ist alles, das von Reich Pipi nach Reich Popo Zeichen generiert,
die mehr bedeuten wollen als eine Scheidung, die sich im Scheiden bereits selbst wieder neu die Heiratsurkunde ausstellt.

*Jeder normal denkende Mensch wird einsehen, dass die „Unschärferelation“ eine tautologische Formulierung darstellt, weil sie sagt, dass der „Ort“ und der „Impuls“ eines „Teilchens“ nicht gleichzeitig beliebig genau bestimmt werden kann. Demzufolge gibt es in der Natur keine zwei exakt gleichzeitigen Startpunkte für Bewegung.  „Gleichzeitigkeit.“ wird also prinzipiell ausgeschlossen.
Wenn aber prinzipiell „Gleichzeitigkeit“ ausgeschlossen wird, dann ist die Aussage der Unschärferelation tautologisch, selbstbezüglich und damit entweder unendlich sinnlos oder unendlich sinnvoll, ebenso wie das Konzept „Teilchen“.
Die Unschärferelation sagt dann: Einen „Ort“ gibt es prinzipiell nicht.
Wenn es aber prinzipiell keinen „Ort“ gibt, dann ist das Konzept
„Ort und / oder Impuls“ als Aussage hinfällig oder nichtsagend.

Niemand braucht mit großem intellektuellen Aufwand einen „Ort“ verneinen, den es nie gegeben hat. Oder anders gesagt: Man muss keinen Fisch mühsam ins Wasser tauchen, um ihm das schwimmen zu lehren. Man muss keinen Schneemann weiß anmalen, damit er schön weiß ist. Die Unschärferelation hebt sich als Aussage selbst auf. Deshalb kommt es zur „spukhaften Fernwirkung“ bei verschränkten „Teilchen“, weil „kein Ort“ soviel heißt wie:
Der „Ort“ (Impuls) ist dann überall.
Ich plädiere aus realistischen Gründen und weil es so schön ist, zu sagen: Seien wir doch mal realistisch. –  für die Option: Überall.
Wie unscharf sind die Sterne?

Sehr witzig, Herr Schrödinger...

Sehr witzig, Herr Schrödinger…

Entropie – Kreativpotential der Natur. Interview mit Prof. T.S.W. Salomon

ZUR ROLLE DER ÄSTHETIK IN DEN MATHEMATISCHEN NATURWISSENSCHAFTEN AM BEISPIEL DES MAXWELL-FARADAYSCHEN ELEKTROMAGNETISMUS

Erstes Gespräch: Hochtechnologie – über das Risiko moderne
Kathedralen zu bauen.

„The mathematicians and the physics men have their mythologie; they work alongside the truth never touching it; equations are false but things work.“
-Robinson Jeffers –


Eigentlich wollte ich hier nur ein Buch rezensieren. Das Buch heißt:

Eine Geschichte des Glasperlenspiels. Irreversibilität in der Physik. Irritationen und Folgen. Birkhäuser Verlag: Basel – Boston – Berlin 1990.

Aber ein durchaus nicht zufälliger Umstand gab mir Gelegenheit zu einem Gespräch mit dem Autor des Buches. Mit einem Raumfahrt-Ingenieur und Autor, der sich in Gefilden der Hochtechnologie ebenso auskennt wie in höhermathematischen Regionen der Wissenschaft – und hier mit einer exzellent ausgeprägten Kompetenz für die methodischen Basics  theoretischer und praktischer Physik  aufwarten kann.

Zwischenmeldung:
Zu diesem Buch gibt es eine aktuelle Anekdote, die ich kurz erwähnen möchte: AMAZON bewirbt ab Mitte 2010 die neuen Bücher der zwei Spitzenphysiker Stephen Hawking und Leonard Susskind. SH ist Astrophysiker & Kosmologe („Die Randbedingung des Universums besteht darin, das es keinen Rand hat.“), LS sieht sich als Kosmologe („Black Hole Information Paradox“) und ist einer der Gründer der Stringtheorie. Beide Autoren führen über ihre Bücher eine heftige Kontroverse („Krieg“) um Sinn & Unsinn der Schwarzen Löcher. Im Zentrum steht dabei die Rolle der ENTROPIE.
AMAZON wendet sich nun mit der Kaufempfehlung für Susskinds Buch explizit an jene Leser, die Straubs ‚Geschichte des Glasperlenspiels’ (GPS) gekauft haben. Diese Begründung ist schon deshalb erstaunlich, weil das GPS seit mehr als zehn Jahren vergriffen ist, und antiquarisch inzwischen teilweise astronomische Preise erzielt. Absurd wird sie indes für jene Leser, die das GPS nicht nur gekauft, sondern auch gelesen haben. Ihnen wurde gewiss schnell klar, dass der Autor eher zu jenen Kritikern gehört, der die Theorien von SH und LS gleichermaßen zurückweisen würde. Er würde beiden zweifellos bescheinigen, ein ‚Glasperlenspiel’ reinsten Wassers eher im Stil scholastischer Spekulation zu zelebrieren als eine in der Tradition Kants an experimentell fundierter Wissenschaftlichkeit orientierte Kontroverse zu führen. Dafür spricht auch SH’s lapidare Bestätigung Nietzsches ‚Gott ist tot’. Konkreter wird LS; er bescheinigt dem Wiener Kardinalerzbischof Christoph Schönborn in Bezug auf das von ihm vehement vertretene »string-landscape-concept« den richtigen Blick für die ‚Ironic Science’: *There is evident irony in the fact that the cardinal seems to grasp the issue much better than some physicists.*

Die Generalüberschrift des vorliegenden Interviews deutet bereits an, dass ich auf die durch AMAZON angestoßene Problematik später zurückkommen möchte, zumal der Autor des GPS mit guten Gründen zur Skepsis oder auch Kritik gegenüber diesen Glasperlenspielen aufwarten kann.

Kurz vorab: Es darf ausnahmsweise eine kleine Lese-Anleitung gegeben werden. Der Text kommt nicht sofort auf die angekündigte Thematik seiner Hauptüberschriften. Warum das notwendigerweise so ist, wird sich dem Leser später erschließen. Zudem werden im nachfolgenden Interview immer wieder „schwierige Passagen“ durchwandert, die nicht weiter vereinfacht werden konnten, ohne dabei den Anspruch auf Seriosität und Integrität des Gesprächspartners zu beschädigen.
Deshalb empfehle ich dem geneigten Leser, hier den lesenden Blick ab und zu auch auf „weit“ zu stellen und mit einem „unscharfen Blick“ zu lesen, wie in einer Text-Landschaft, in der er bestimmte Passagen gegebenenfalls zunächst umgeht und vielleicht später noch einmal aufsucht.

  • Universitätsprofessor Dr. Dieter Straub, geboren 1934, war von 1974 bis zu seiner Emeritierung Ende 1999 Ordentlicher Professor für Thermodynamik sowie Wärme- & Stoffübertragung an der Fakultät für Luft- und Raumfahrttechnik der Universität der Bundeswehr München (UniBwM).
  • Als Diplomingenieur promovierte er 1964 mit der »Theorie eines allgemeinen Korrespondenzprinzips der thermischen Eigenschaften fluider Stoffe« zum Doktoringenieur an der Universität Karlsruhe (TU) beim “Kälte-Papst” Professor Rudolf Plank, sowie bei Prof. Kurt Nesselmann.
  • An der Universität Karlsruhe (TU) Fridericiana habilitierte er 1971 mit »exakten Gleichungen für die Transportkoeffizienten eines Fünfkomponenten-Gemisches als Modell dissoziierter Luft in Re-entry-Strömungen«.
  • Von 1971 bis zu seiner Berufung an die neu gegründete Hochschule/ Universität der Bundeswehr München war er Privatdozent für Theoretische Thermodynamik & Gaskinetik an der Fakultät für Chemieingenieurwesen und Verfahrenstechnik der Universität Karlsruhe (TU).
  • Dr. Straub bildete zusammen mit Kollegen aus Mathematik, Numerik und Physik die erste bundesdeutsche Arbeitsgemeinschaft für Grenzschichtprozesse in Hyperschall- Plasmaströmungen.
  • Das Hauptprojekt der AG betraf die thermodynamischen Prozesse beim Wiedereintritt von Raumflugkörpern in die Atmosphäre (Rückkehr-Technologie). Nach erfolgreichem Abschluss des Projekts begann Dr. Straub 1971 sein außeruniversitäres Berufleben im Umfeld des Bundesministeriums für Forschung und Technologie (BMFT). In der im Auftrag des BMFT tätigen ›Gesellschaft für Weltraumforschung (GfW)‹ in Bad Godesberg arbeitete er unter anderem als Fachgruppenleiter für Aerodynamik, Flugmechanik, Thermodynamik.
  • Schon 1972 wechselte er zur Hauptabteilung Space Technology der (ehemals) Deutschen Versuchsanstalt für Luft- & Raumfahrt (DFVLR – heute DLR) – in Bonn/Porz-Wahn. Dort initiierte und leitete Dr. Straub im Rahmen des Raumfahrt-Basisprogramms der Bundesregierung die ›Arbeitsgemeinschaft RÜCKKEHRTECHNOLOGIE (ART)‹. Die ART realisierte den ersten Zusammenschluss der deutschen Kapazitäten in Industrie, Großforschungsanstalten und Universitäten in einem Mehrjahresprogramm zur Grundlagenforschung für die Rückkehrtechnologie (in nationaler Verantwortung und internationaler Kooperation).
  • Nach Auskunft von Prof. Straub wurde das ART-Programm wegen seiner Erfolge auf Druck der NASA und der französischen Regierung gegen Ende der 80er Jahre eingestellt. Deren Motiv waren die raschen Fortschritte in der systematischen ART-Grundlagenforschung bei gleichzeitig drohender langjähriger Stagnation der unterfinanzierten US-Basisforschung in bemannter Raumfahrt zugunsten des laufenden Space-Shuttle-Technologie-Projekts und der damit verbundenen Missionen. Und die agilen Franzosen? Sie hofften durch den Stopp des ART-Programms, ihren damaligen technologischen Rückstand verringern zu können, um dann die Führungsrolle in einem geplanten europäischen ART-Nachfolgeprojekt zu übernehmen – ein Ziel, das sie dann einige Jahre später zwischen 1985 und 1992 mit dem letztlich erfolglosen Programm »(bemannter) Raumgleiter Hermes« der Europäischen Raumfahrtagentur (ESA) erreichten.
  • Als einziger Europäer war Prof. Straub vom BMFT – auf dringende Bitten des Marshall Space Flight Center (MSFC), Huntsville, Ala – zur Sonderkonferenz der NASA im Februar 1985 in Huntsville als Fachberater für Thermodynamik abgeordnet – betreffend alle verfügbaren und vor allem zukünftigen ›Haupttriebwerke der Space-Shuttle-Flotte (SSME). Die Konferenz endete mit einer einstimmigen Empfehlung der US-Experten: Die NASA sollte ‒ für Korrekturen & Verbesserungen des im Westen längst zum Standard erklärten »NASA-Lewis-Code« zur Leistungsermittlung für die wiederverwendbaren Flüssigkeitsraketentriebwerke ‒ die so genannte Münchner Methode (MM) verwenden, die von Prof. Straub und Mitarbeitern entwickelt wurde.
  • Im Auftrag des BMFT verfasste Prof. Straub eine Dokumentation der MSFC-Konferenz in Buchform betitelt:
    Thermofluiddynamics of Optimized Rocket Propulsions. Extended Lewis Code Fundamentals. Birkhäuser Verlag: Basel – Boston – Berlin 1989.
  • Mit dem Marshall Space Flight Center arbeitete der Autor bis Ende 1991 zusammen. Alsdann kooperierte er und sein Münchner Institut bis 1999 mit dem Mathematiker Prof. W. Ames am Fachbereich Applied Mathematics des ›Georgia Institute of Technology‹ in Atlanta.
  • Neben vielen anderen, oft umfangreichen wissenschaftlichen Publikationen hat Prof. Straub ca. 50 Dissertationen betreut. Als seine originärste Arbeit nannte er das Buch, welches auf der Re-Formulierung der Thermodynamik durch J. Willard Gibbs & Gottfried Falk fußt:
Alternative Mathematical Theory of Non-equilibrium Phenomena. Academic Press: San Diego, London 1997.
Erhaltene Auszeichnungen: 1997: Verleihung des Bundesverdienstkreuzes am Bande des Verdienstordens der Bundesrepublik Deutschland für besondere Verdienste: – beim Aufbau der UniBwM u.a. die Planung für Studiengänge, personelle und räumliche Ausstattung, Geräteausstattung…etc..
2002: Verleihung der Goldenen Herrmann Oberth-Medailie durch den Internationalen Förderkreis für Raumfahrt Hermann Oberth – Wernher von Baun (IFR) e. V. in Anerkennung seiner außergewöhnlichen Verdienste um die Raumfahrt-Wissenschaften, insbes. NASA. Thermodynamik. Space-Shuttle-Main-Engines)

Besonders die Gibbs-Falk-Dynamik verbindet mein Gesprächspartner mit einigen signifikanten Eigenschaften der heutigen Quantentheorie, gar mit genuinen Aspekten der theoretischen Ökonomik. Dass sich Prof. Straub darüber hinaus sogar für die Wissenschaftsgeschichte und -Philosophie seiner eigenen Fächer interessiert, und sich hier extrem gut auskennt, macht ihn zum seltenen Glücksfall für einen „Widerspruchsforscher“.
Für die Öffentlichkeit – so auch für unser Gespräch – benutzt Prof. Straub schon seit Jahrzehnten aus schriftstellerischen Gründen den Namen T. S. W. Salomon. Die Initialen TSW stehen exemplarisch und austauschbar für Themistokles, Schrödinger, Whitehead, ergo für Persönlichkeiten, deren Namen TSWS derzeit aus diversen Motiven & Gründen als Orientierungsmarken favorisiert. Man darf sie aber auch lesen als Abkürzungen für naturwissenschaftliche Schlüsselbegriffe wie z. B. die »allgemein-physikalischen Größen« Entropie (S), Zeit (t) oder Temperatur (T) oder Leistung bzw. Arbeit (W).

Ich selbst benutze mein Pseudonym Tim Boson. Unser Gespräch ist mehrteilig konzipiert; es wurde und wird per Email bzw. Telefon geführt. Es mag in fachlichen Fragen vom Leser als Antwort nach bestem Wissen bezüglich wissenschaftshistorischer, physikalischer und technischer Zusammenhänge bewertet werden. „Errare humanum est, ignoscere divinum“ (Cicero).

Tim Boson:
Herr Professor Salomon, was mir an ihrer Forscherbiografie spontan auffiel: Ich entnehme aus ihr, dass es in der bemannten Raumfahrt beinahe ein und dieselbe Kompetenz braucht, um mittels mächtiger Raketentriebwerke von der Erde aus zu ‚flüchten’, als auch per ausgefeilter Rückkehrtechnologie wieder zu ihr zurückzukehren. In beiden Fällen hat man es mit überschallschnell strömenden Gasen sehr hoher Temperatur zu tun – verbunden mit extremer Materialbelastung. Deshalb meine erste Frage: Wie kam es zu Ihrem Engagement beim Space-Shuttle-Programm der NASA?

TSWS:
Die Sache war die: Die US-Raumfähren werden ja nicht nur je von den beiden weißen wieder verwendbaren Feststoff-Boostern (an der Seite) ‚hochgeliftet’ – jede Raumfähre verfügt selbst auch noch über einen fest eingebauten Antrieb. Das sind die 3 Kegeldüsen, die man hinten direkt am Orbiter sieht. Dieser Antrieb schiebt von der Startphase an mit und wird von der ‚dicken braunen Tank-Zigarre’ mit einem Gemisch aus Flüssigtreibstoff versorgt. Und genau dieser Antrieb konfrontierte die Ingenieure der NASA von Anfang mit gravierenden technischen Schwierigkeiten, weil er relativ eng dimensioniert sein und dennoch eine große Leistung erbringen musste. Vor allem aber, weil die Raumfähren der NASA durch ihre jahrelange Wiederverwendbarkeit und ihren steuerbaren Gleitflug besondere Anforderungen bei extremen Sicherheitsstandards zu erfüllen haben.

Tim Boson:

Flüssiggastriebwerke kannte man zu diesem Zeitpunkt doch schon länger? Musste hier das Rad neu erfunden werden? Was war also das eigentliche Problem?

TSWS:
Einfach ausgedrückt, das Dauerproblem waren die zu erwartenden Belastungen und Leistungen und wie man sie berechnet. Diese Hochleistungsraketentriebwerke waren in ihrer Art ein Neuentwurf und mit heißer Nadel gestrickt. Schon der Jungfernflug 1983 hätte schief gehen können.

Tim Boson:

Sie meinen einen Unfall?

TSWS:

Sagen wir es so: Diese Art der Raumfahrt birgt immer ein hohes Risiko. Man konstruiert in Grenzbereichen, denkt in Neuvorstößen. In solchen Bereichen von Leistung und Materialbelastung hat man es bei jeder Entwicklung immer mit Pionierarbeit an Prototypen zu tun. Das Einzige was hier normal ist – dass nichts normal ist. Da greift man nur selten auf ‚angestaubte Langzeiterfahrungen’ zurück, keine gepflegten Großserien wie in der Rüstungsindustrie sind verfügbar, keine langjährigen Praxisbeweise wie in einer Fabrik für Nähmaschinen. Dazu kommen die menschlichen Ressourcen an Erfahrung. Ein Ingenieur kann in seinem ganzen Arbeitsleben vielleicht an einem – wenn es hochkommt – an zwei verschiedenen Großtriebwerken mitentwickeln, dann gehen er und seine vielfältigen Erfahrungen in Rente.

SSME (SPACE SHUTTLE MAINE ENGINE)SSME (Space Shuttle Main-Engine.) Das Objekt der Begierde – 50 Millionen Dollar pro Stück. Das SSME wird von Pratt & Whitney Rockedyne gebaut und wiegt 3,2 Tonnen. Die Schubdüse hat eine Länge von 2,87 Metern und einen maximalen Durchmesser von 2,39 Metern. Jeder Orbiter hat drei Stück davon in einem Cluster eingebaut. Beim Start beträgt die Brenndauer achteinhalb Minuten. Im Gegensatz zu den Feststoffraketen kann jedoch bei diesem Triebwerk der Schub geregelt werden oder im Flug abgestellt werden. Jedes Treibwerk liefert mehr als 2000 Kilonewton (200 Tonnen) Schub. In der Brennkammer erreicht die Temperatur über 3300 Grad Celsius. Durch Turbopumpen wird der Treibstoff mit einem Druck von ca 450 Bar und der Oxidator mit ca 300 Bar zur Brennkammer befördert. Dabei erreichen die Pumpen Drehzahlen von ca 35 000 U/min. Der Erstlauf eines SSME fand im Oktober 1975 statt. Auch noch nach fast 35 Jahren zählen die SSMEs zum Hauptrisikofaktor der Shuttle-Flüge.

Die NASA verfügte zum Zeitpunkt der Entwicklungen über keine wirklich zuverlässigen numerischen Verfahren; sie benutzte standardisierte, aber teilweise veraltete Berechnungsmethoden zur Dimensionierung eines solchen neuen Triebwerks wie es die SSME (Space Shuttle Main Engine) ist. Die Physik, die sich in solchen Strömungsprozessen im Verhältnis zwischen Gasgeschwindigkeit, Druck, Temperatur und Materialverhalten abspielt, gehört zum Anspruchsvollsten, was man heutzutage mathematisch zuverlässig formulieren und numerisch mit ausreichender Genauigkeit berechnen kann. Und die mathematischen, vorrangig numerischen Methoden, die man dafür benötigt, um z. B. turbulente Strömungen reaktiver Gase berechnen zu können, sind oft mindestens unter zwei Aspekten unzureichend: Erstens fehlen auf der numerischen Seite gewöhnlich die adäquaten Lösungsalgorithmen, und zweitens herrscht ein eklatanter Mangel vor an zuverlässigen Materialfunktionen. Beispielsweise gibt es nur die rein mechanistische kinetische Gastheorie, 100 Jahre alt, um die Viskositäten, oder die Wärmeleitfähigkeiten oder die polynären Diffusionskoeffizienten eines reaktiven Vielkomponenten-Gasgemisches bei hohen Temperaturen zu ermitteln. Eine experimentelle Überprüfung dieser Daten ist in aller Regel ohnehin unmöglich!

Tim Boson:

Können Sie das Problem ein bisschen näher beschreiben?

TSWS:

Sie müssen sich Folgendes vorstellen: Die elektrische Zündung eines solchen Triebwerks verursacht zunächst eine gewaltige Explosion in der Brennkammer. Alles fliegt auseinander. Das können Sie wörtlich nehmen. Da gibt es sozusagen keinen einzigen Punkt in den strömenden Gasen, der sich im Laufe des Startvorgangs nicht irgendwie bewegt und verschiebt. Temperatur, Druck, Gegendruck, Gaszusammensetzung und Gasströmung sorgen dafür, dass kein Teilchen an der Stelle bleibt, an der es vor der Zündung war.

Im Endeffekt resultiert eine Vorzugsrichtung im Raketenmotor, in die sich das Gas rasch ausbreitet, um die Brennkammer zu verlassen. Das gilt indes nicht für die Wandmaterialien, welche die Brennkammer begrenzen und schützen. Übrigens expandiert ein solches “explodierendes” Milieu nicht homogen, sondern zeigt in aller Regel ein nichtlineares Verhalten – ergo, es explodiert zum Beginn der Zündung anders als in der Mitte und am Ende der Startphase, weil sich die Temperaturen und Drücke des Gases nicht plötzlich, sondern kontinuierlich einstellen und sich entlang der Vorzugsrichtung verändern. Außerdem muss man beachten, dass das ganze SHUTTLE ja mit jeder Sekunde an Gewicht verliert, weil der Treibstoff verbrennt. Außentemperaturen, Luftdruck und Luftdichte variieren ebenfalls. Besonders charakteristisch verändert sich die Gasgeschwindigkeit entlang der Brennkammer-Düsen-Achse.

Wenn Sie so wollen, hat man es also bei einem Raketenstart ‒ ingenieurtechnisch und praktisch von innen betrachtet ‒ mit einem Bewegungsvorgang ´ohne Konstanten` zu tun. Das einzige, was man kennt, sind Grenzwerte für Gas- und Materialverhalten, für Temperaturen oder Drücke, statistische Mittelwerte der Gaskonzentrationen und natürlich die ‚Außenkonstanten’ wie die Erdanziehung oder das Wetter. Alle Daten sind miteinander ‚vernetzt’ und sollen nun so reguliert werden, dass aus einer Explosion eine irreversible, stationäre Strömung wird.

Und hier kommt die Mathematik ins Spiel: Die Mathematik der Thermodynamik; sie optimiert über den ›Massenstrom pro Zeiteinheit‹ das ganze SYSTEM – das heißt das reaktive Gasgemisch hoher Machzahl. (Anmerkung T. B.: 1 Mach ist die Maßeinheit für die Schallgeschwindigkeit, die strömenden Gase können mehrfache Schallgeschwindigkeit erreichen – in der Wiedereintrittsphase erreicht der Orbiter Mach 25) Die Verbrennungsgase ‚bewegen’ das Triebwerk durch den resultierenden Schub. M. a. W.: Je nach gewähltem Betriebszustand muss der Durchsatz des reaktiven Gasgemisches an die charakteristischen geometrischen Kenndaten des Triebwerks optimal angepasst werden. Dazu ist ein geschlossener Regelkreis ausschlaggebend – betreffend die zulässigen, d. h. materialbedingten Maximaltemperaturen sowie die passende chemische Kinetik des SYSTEMS.

Tim Boson:

Sie haben SYSTEM hier groß geschrieben. Das wird uns an anderer Stelle sicher noch beschäftigen. Zunächst einmal wurden Sie angefragt….

TSWS:

Ja. Auf meine Bitte hin, hatte das Marshal Space Flight Center auch meinen Münchener Kollegen, Herrn Professor Rudi Waibel † im Februar 1985 nach Huntsville zu einem Meeting eingeladen. Dem war in den USA eine jahrelange Geschichte vorausgegangen, die bereits ca. 20 Jahre früher – ich möchte sagen – einen äußerst riskanten Anfang genommen hatte. Diese Story würde ich im Nachhinein als hochgefährliches Spiel zwischen der NASA und dem Lockheed-Konzern bezeichnen, zumal die Verantwortlichen des Marshall Space Flight Center ‚offensichtlich jetzt’ (1985) plötzlich kalte Füße bekommen hatten. Das war zweifellos der Hauptgrund, weshalb mein Kollege und ich als neutrale Gutachter ins MSFC nach Alabama kommen sollten.

Tim Boson:

Ich schätze, diese Vorgeschichte müssen Sie jetzt etwas näher ausführen…

TSWS:
Im Jahre 1969 erstellte Mr. P. R. J., Ingenieur und damals Mitarbeiter der Lockheed Corporation, Bethesda, Maryland, im Auftrag des MSFC eine gutachterliche Stellungnahme zur Auslegung der geplanten leistungsstarken Antriebsaggregate für die US-Raumfähre „Space Shuttle“. Besonderes Interesse zeigte die NASA an einer theoretischen Analyse über den Einfluss der endlichen Brennkammer-Querschnittsfläche auf die Antriebsleistung eines Hochleistungs-Raketenmotors ‒ am Ende der Brennkammer, im Vergleich zu der bei Leistungsberechnungen üblicherweise unterstellten (theoretisch) unendlich großen Querschnittsfläche – dort, wo letztere in die nachgeschaltete Düse übergeht.

Tim Boson:

Moment,…die Brennkammer ist ja wohl der Raum, in welchem der Treibstoff zur Explosion gebracht wird? Warum hat man bis zum Jahre 1969 mit einem unendlich großen Brennkammerquerschnitt gerechnet? In Wirklichkeit gibt es so etwas doch gar nicht – sagt mir mein gesunder Menschenverstand…

TSWS:

…ja, aber für Berechnungen war es bis dahin angeblich praktikabler, einen unendlich großen Querschnitt zu unterstellen. Der Wert der Explosionsgeschwindigkeit eines Gasgemischs ist im Prinzip immer derselbe, ob innerhalb oder außerhalb einer Brennkammer. Die Frage war immer nur, ob die Kammer mechanisch stabil bleibt und die oft hohen thermischen Belastungen aushält. Denn die Triebwerke werden je nach Nutzlast, die gestemmt werden soll, leistungsseitig natürlich verschieden beansprucht. Im Falle des Gutachtens von Mr. P. R. J. ging es indes zunächst um die Leistungsberechnung für die Durchführung von Forschungs- und Beobachtungsmissionen, dann um ›Space-Station-Projekte‹, heute konkret um die Versorgung der ISS (bemannte Internationale Raumstation) sowie für bestimmte „weltraumnahe“ Missionen – betreffend „weltraumnahe“ Objekte (z. B. Satelliten oder Weltraumschrott).

Die Planungen der NASA erforderten dafür zuverlässige Informationen über die jeweils erforderliche ›Schubleistung pro SSME‹ und ihre adäquate Bestimmung. Dazu benötigte man vorrangig einen ›idealisierten Ersatzprozess‹ (Idealized Replacement Process = IRP), der es mittels der ab 1975 geplanten Testprogramme erlauben sollte, das an der realen SSME experi-mentell ermittelte Leistungsspektrum sicher beurteilen und systematisch verbessern zu können.

Entscheidend ist: Die NASA muss davon ausgehen, dass das den IRP definierende Modell nach dem ‚State of the Art’, ergo nach den in den USA geltenden Regeln der zeitgenössischen Ingenieurkunst gestaltet ist. M. a. W.: Die NASA schuf sich – was die wissenschaftlichen Grundlagen der Gasdynamik, Thermodynamik, Gas- & Reaktionskinetik, etc. angeht, einen eigenen Standard, der für alle ihre Vertragspartner verbindlich ist.

Das Raketentriebwerk der SSME selbst wurde für den ERSATZPROZESS abstrahiert, d. h. ‚realistisch’ konzipiert, bezogen auf zwei charakteristische Bauteile: Erstens auf einen Zylinder konstanten Durchmessers. Das eine Zylinderende ist abgeschottet; am anderen Ende wird –zweitens– eine so genannte (rotationssymmetrisch gestaltete) Lavaldüse (Sie dürfen Kegeldüse sagen.) derart angeflanscht, dass Brennkammer und Düse eine gemeinsame Achse bilden; zudem ist die Austrittsquerschnittsfläche des Zylinders mit der Eintrittsquerschnittsfläche der Düse identisch. Noch ein wichtiges Detail: Der variable Querschnitt der Lavaldüse verengt sich zunächst und weitet sich bis zum Gasaustritt wieder auf, wodurch ein durchströmendes Gas auf Überschallgeschwindigkeit beschleunigt werden kann, ohne dass es zu starken (verlustreichen) Verdichtungsstößen kommt. Die Schallgeschwindigkeit des Verbrennungsgases wird genau im engsten Querschnitt der Düse, ihrer ‚Kehle’ (Throat) erreicht.

In diesem Video sind die Girls im Vordergrund sehr dekorativ, aber der Ton auf jeden Fall bemerkenswert. Das “Knattern” wird durch die Überschallbeschleunigung der Verbrennungsgase erzeugt, die in Verdichtungsstößen ihre eigene Schallmauer durchbrechen. Der Vorgang ist so laut, dass sich die Frau links im Bild kurz bekreuzigt – fast könnte man sagen: wie es sich in einer modernen Kathedrale auch gehört.

Tim Boson:

Ich verstehe einen Aspekt immer noch nicht: Was bedeutet für die Auslegung einer SSME, wenn man einerseits beim Gebrauch des NASA-LEWIS-CODE mit einem Brennkammerquerschnitt von (theoretisch) ‚unendlich’ rechnet, andererseits aber für den ERSATZPROZESS bei sonst gleichen Abmessungen der Lavaldüse mit dem realen Wert des Brennkammerquerschnitts kalkuliert?
Um mir eine konkrete Vorstellung machen zu können, habe ich hier mal die wahren Querschnitts-werte A der SSME aus ihrem ‚Raketenbuch’ herausgesucht:

Brennkammer AC; Throat AT; Austrittsquerschnitt der Lavaldüse AE:

AT = 538 cm2; AC / AT = 2. 96; AE / AT = 77.5.

Können Sie damit besagten Unterschied einigermaßen plausibel begründen?

TSWS:

Mein Versuch, dem Laien die Sachlage halbwegs verständlich zu machen, muss für manchen Leser vielleicht zu ‚formal’ ausfallen – leider! Je nach Gemütslage sollte er reagieren: die Textpassage überspringen und einfach glauben, ohne sich zu ärgern oder aber sich zu quälen und die Chance zu nutzen, auf sich selber ein bisschen stolz zu sein: Common Sense und Geduld genügen!

Maßgeblich für die Auslegung des Raketenmotors mittels des ERSATZPROZESSES (IRP) sind die Strömungsverhältnisse in der Lavaldüse. Die Massenerhaltung entlang der Düse bedeutet, dass der Massenstrom ż (in kg/s) sich durch die simple Formel ż = ρvA ausdrücken lässt; mit ρ ist die mittlere Massendichte (in kg/cm3) der Verbrennungsgase, mit v (in cm/s) die gemittelte Gasgeschwindigkeit und mit A (in cm2) die jeweilige Querschnittsfläche bezeichnet. Da sich der Massendurchsatz ż entlang der Düsenachse nicht ändert, gilt nach der o. a. Formel einfach die Kontinuitätsbedingung ρTvTAT = ρEvEAE = ż für die Lavaldüse mit zwei ihrer drei ausgezeichneten Querschnittsflächen. Diese physikalisch vorgeschriebene Zwangsbedingung muss aber sowohl für die Brennkammerquerschnittsfläche gelten als auch gleichermaßen für die Eintrittsquerschnittsfläche der Lavaldüse: ż = ρC vC AC.

Die Auflösung des Rätsels ist einfach: Bei finitem (endlichen) Wert der Massendichte ρC muss für den Grenzfall AC → ∞ das Produkt (ρC vC AC) einen ‚mathematisch unbestimmten Ausdruck’ (ρC 0 ∞) ergeben. Nach den mathematischen Spielregeln darf man diesen Grenzwert durch jeden Wert ersetzen, der einer wahren Lösung des Produkts (ρC vC AC) entspricht. Letzere ist aber durch die o. a. Kontinuitätsgleichungen der Düse festgelegt und bekannt.

Es ist evident, dass bei dieser Rechnung ein beliebig großer Wert von AC → ∞ auf der Brennkammerseite ebenso wie der korrespondierende Geschwindigkeitswert vC → 0 nur bedeuten, dass sie zur Definition des ERSATZPROZESSES gehören. In diesem Sinn ist der originale NASA-Lewis-Code (bis 1988) Teil dieses Modells. 

Ergo gilt, dass eine Berechnungsprozedur ohne Berücksichtigung der Querschnittsfläche AC der Brennkammer zunächst einmal nicht falsch ist. Die Konsequenz wird erst in der MÜNCHNER METHODE (MM) von Dieter Straub & Stefan Dirmeier gezogen. Die Münchner Methode (MM) benutzt demgegenüber keinen IRP im Sinn der o. a. Definition, sondern den ›idealen Vergleichsprozess‹ (Ideal Comparative Process = ICP); er richtet sich nach rein wissenschaftlichen Kriterien. Der ICP erlaubt eine strenge Modifikation der Berechnungsprozedur, die darauf hinausläuft, durch Einbeziehung der dritten Fläche AC ein Iterationsverfahren zu konstruieren, das den Durchsatz ż als Problemlösung zu berechnen gestattet, wobei die gesamten komplexen Berechnungen der chemischen Reaktionen des Verbrennungsgases entlang des Strömungswegs vom Brennkammeranfang bis zum Düsenende iterativ mit einbezogen werden. Darin besteht der grundsätzliche Unterschied zwischen dem IRP (idealer Ersatzprozess) und dem ICP!

(Anmerkung T.B. : “Iteration” – schrittweises wiederholendes Annähern, Rechnen)

Tim Boson:

Für Spezialisten scheint die von Ihnen präsentierte Beantwortung meiner Frage leicht nachvoll-ziehbar. Vielleicht ist es indes für den Nicht-Spezialisten nützlich zu wissen, dass es nur in der Thermodynamik noch einige andere streng ›naturwissenschaftlich begründete VERGLEICHS-PROZESSE‹ gibt, wie z. B die Schwarz-Körper-Strahlung. (Das Thema IDEALER VERGLEICHSPROZESS werde ich mir merken. Es scheint mir verbunden zu sein mit der kognitiven Problematik des UNTERSCHIEDS. Ich kann nur dann etwas UNTERSCHEIDEN, wenn ich es vor einem (gemeinsamen) Hintergrund VERGLEICHE.) Aber erstmal zum Thema. Gibt es darüber hinaus zur Münchner Methode noch relevante Kommentare, die kurz zur Sprache kommen sollten?

TSWS:

Diese Anregung nehme ich gern in Anspruch. Zwei Konsequenzen ergeben sich aus den Erfahrungen mit der Münchner Methode: (1) Das Konzept der idealtypischen Konfiguration, bei dem der reale Triebwerkstyp abstrahiert wird, ermöglicht den Übergang vom ‚geschlossenen’ Raketenmotor auf durchströmte, luftatmende Flugantriebe mit & ohne Kühlung. Wichtige Beispiele sind Leistungsberechnungen für Staustrahltriebwerke mit Unterschallverbrennung, den so genannten Ramjets. (2) Der NASA-Lewis Code, das amerikanische Standardverfahren zur numerischen Berechnung komplexer chemischer Gleichgewichtsreaktionen, enthält in seiner Originalfassung bezüglich der o. a. besprochenen »Infinite Area Combustion Method« einen Fehler: Bei dieser Methode werden die kinetischen Anteile der Erhaltungsgleichungen für Impuls und Totalenthalpie in der Brennkammer (Zustand C) fälschlicherweise vernachlässigt.

(Anmerkung T.B. “Totalenthalpie” als grober Vergleich: Man kennt den Effekt von der Strömung in einer Luftpumpe. Kompression erwärmt. Expansion kühlt ab. Die Bedeutung der Totalenthalpie bei Raketenmotoren liegt darin, dass Enthalpie als “Maß für den Wärmegehalt” einer Strömung auch in kinetische Energie des strömenden Mediums überführt werden kann. Im ersten Fall kommt es zur Expansion und meist zur Abkühlung; und umgekehrt: kinetische Energie – kann in Enthalpie überführt werden (Staudruck, also Kompression – damit einhergehend meist Temperaturerhöhung. Das Problem bei der Dimensionierung von Raketenmotoren liegt in dem “guten” Verhältnis von Staudruck und Expansion bezogen auf Leistung und Temperatur. Die Strömung dann auch noch stationär zu regeln – das ist die Kunst.)

Tim Boson:

…und dann brachte das Lockheed-Gutachten 1969 von Mr. P. R. J. die NASA auf die Idee, dass ja auch der endliche Querschnitt der Brennkammer selbst ein Leistungsfaktor sein könnte…?

TSWS:

Ja, weil es notwendig geworden war, Triebwerke kompakter und kleiner zu bauen, begann man sich dafür zu interessieren.

Tim Boson:

Und was hat Mr. P. R. J. denn eigentlich gemacht?

TSWS:

Der hat eine Art von Gutachten erstellt, das mit endlichen Querschnitten einer Brennkammer rechnete, und er kam für das Triebwerk J-2 auf phantastische Leistungssteigerungen. Und zwar schon bei Gastemperaturen in der Brennkammer von nur(!) 2600 Grad – im Gegensatz zu einem Wert von über 3300°C, wie man sie aus dem originalen NASA-Lewis-Code erhält.

Tim Boson:

Das war phantastisch?

TSWS:
Ja, es war voller Phantasie, hatte aber nur wenig mit der Realität zu tun.

Tim Boson:

Was geschah dann?

TSWS:

Die NASA begann Anfang der 1970er Jahre damit, die ersten SSMEs in Kenntnis dieser Lockheed-Studie zu planen und der Raumfahrtindustrie Entwicklungs- & Produktionsaufträge zu erteilen.

Tim Boson:

Sie wurden dann von Rocketdyne gebaut, getestet und in die Space-Shuttles integriert?

TSWS:
Ja, drei Stück davon jeweils in einen Orbiter

Tim Boson:

Das würde bedeuten, dass die Tests ebenso wie die allerersten Flüge der Missionen mit Haupt-triebwerken unternommen wurden, die bezüglich der Brennkammertemperaturen falsch ausgelegt waren mit der Folge, dass sie chronisch ‚überhitzt’ werden mussten, denn der missionsbedingte Schub war ja unabdingbar. Warum hat man das bei Tests nicht bemerkt?

TSWS:

Das Problem bei Tests ist, dass sie kostspielig sind und ein solches Triebwerk sehr viel Geld kostet: Sie müssen bei einem Test immer einkalkulieren, dass sie 50 Millionen Dollar zerstören, wenn Sie so ein Triebwerk bis an eventuell notwendige Leistungsgrenzen bringen oder kurzfristig darüber hinausgehen. Ab einem bestimmten finanziellen Volumen sind solcherart Tests immer – harmlos ausgedrückt – ‚kompromissbelastet’.

Tim Boson:

Und nicht harmlos ausgedrückt?

TSWS:
Man testet solche Triebwerke so, dass sie beim Test nicht kaputt gehen.

Tim Boson:

Gut, aber es wird ja einen Grund gegeben haben, dass sich die NASA an Sie nach München wandte?

TSWS:

Nun, der Grund wird gewesen sein, dass sie z. B. bei den Missionen über verschiedene Optionen verfügte, die zur Folge hatten, dass bei der Besatzung sowie der Bodenstation von einander abweichende Temperaturen registriert wurden und es Leistungseinschränkungen in der Vollschub-Phase gegeben hat. Zumindest wird es immer sehr eng mit den ohnehin kritischen Temperaturen geworden sein.

Tim Boson:

Genauer bitte,…..!

TSWS:

Sie werden durchschnittlich höhere Temperaturen gemessen haben als die ca. 2600°C, die ihnen seit 1969 Mr. P. R. J. wie das ‚Gelobte Land’ prophezeit hatte. Sie waren die Messlatte! Oder sie haben 2600 Grad gemessen, als das Triebwerk noch nicht unter Volllast lief. Sie werden sich bei jeder Mission gefragt haben. Sind wir wirklich korrekt dimensioniert? Dürfen wir den Gashebel wirklich so weit aufdrehen, wie wir es tun? Der Leser sollte wissen, dass diese Triebwerke geregelt werden können und etwa 40 Sekunden nach dem Abheben auf Voll-Last von der Besatzung des Shuttles hochgefahren werden. Die geben dann noch mal richtig Gas. 
Solche Missionen sind aber energieseitig immer sehr eng berechnet, weil die Shuttles oft große Lasten transportieren und damit die Erdanziehung überwinden müssen. Sie können also, wenn Besatzung und Bodenstation feststellen, dass das Triebwerk zu heiß läuft, nicht einfach sagen, dann nehme ich den Gashebel eben zurück, weil sie dann ihr Ziel einfach nicht erreichen und die Mission scheitert. Wenn sie sich einmal dazu entschieden haben, abzuheben, dann sind sie gezwungen, Gas zu geben, (fast) ganz egal, was die vielen Messeinrichtungen und Computer an Bord und am Boden signalisieren. Auch wenn sie dabei ein mulmiges Gefühl haben – sie müssen da durch!

Ein sehr vollständiges Video. Auf dem Video erkennt man, wie die Haupttriebwerke ca 5 Sekunden vor den Feststoffboostern gezündet werden. Nach dem Abwurf der Feststoff-Booster schieben die Haupttriebwerke allein weiter. Auch das kann man noch sehen. (Etwa bei 1:17 des Videos hört man von Houston das Kommando: “Atlantis – Go at problem.” – eine sehr sprechende Kurzversion für “Machen Sie ihr Ding.” oder “Erledigen Sie den Auftrag.”)

Tim Boson:

Die NASA hatte also sehr heiße Triebwerke und ziemlich kalte Füße.

TSWS:
Ja, und wie. Dazu muss ich Ihnen eine Episode erzählen, die ich erst kürzlich erfahren habe. Meines Erachtens handelt es sich um eine Schlüsselszene für alle Dimensionen unserer Story.

Sie erinnern sich gewiss an den Dienstag, dem 28. Januar 1986. Beim Start zur 25. Space-Shuttle-Mission explodierte die STS-51-L – CHALLENGER; die gesamte Besatzung kam ums Leben.

Mitglied der Regierungskommission zur Aufklärung dieser Katastrophe war auch der damals vielleicht renommierteste US-Naturwissenschaftler, der theoretische Physiker & Nobelpreisträger Richard P. Feynman. Wir werden später noch viel von ihm hören. Hier geht es um seinen sehr persönlichen, sehr lesenswerten Bericht über seine Erfahrungen in Washington D. C. bei dieser Kommission-sarbeit. In der deutschen Übersetzung trägt der Bericht den Titel „Mr. Feynman geht nach Washington, um die Challenger-Katastrophe zu untersuchen“. (in R. P. F.: Kümmert Sie, was andere Leute denken? Piper: 2008).

Zur Vorbereitung seiner Untersuchungstätigkeit ließ er sich gründlich von Ingenieuren des Jet Propulsion Laboratory der NASA in Pasadena instruieren. In seinem Bericht findet sich die folgende für mich entlarvende Notiz (S. 116):

Die Ingenieure verrieten mir sogar, dass etliche der für die Triebwerke zuständigen Fachleute bei jedem [Space Shuttle]-Flug den Daumen halten und sich, als das Shuttle explodierte, sicher waren, dass es an den Triebwerken lag.

Tim Boson:

Formulierung und Inhalt der Bemerkung klingen tatsächlich irritierend, aber warum „entlarvend“?

TSWS:

Weil sich die Notiz Feynmans auf eine Zustandbeschreibung im Jahr 1986 bezog. Die in ihr zum Ausdruck kommende Befürchtung wurde aber mir und meinem Mitarbeitern gegenüber nahezu wortgleich von den Mitgliedern der NASA-Abordnung geäußert, die mich drei Jahre früher im August 1983 in München aufsuchten. Unmissverständlich berichteten sie, dass die Ingenieure jahrelang bei jedem Flug die Explosion eines der Haupttriebwerke befürchteten.

Endlich nach 10 Jahren entschied das Management des MSFC, das Lockheed-Gutachten von Mr. P. R. J. von einer anderen Firma, der Continuum Inc., Huntsville, Ala ´gegenchecken` zu lassen. Der »Witz« – sofern es einer war – war aber der, dass Mr. P. R. J. mittlerweile Karriere gemacht hatte und zu Continuum Inc. gewechselt war, und nun sein eigenes Gutachten noch einmal begutachtete und – wer hätte das gedacht – nichts beanstandete!

Tim Boson:

Die Neutralität war nicht mehr gegeben…?

TSWS:

Das klingt aber sehr ‚diplomatisch’: Nein, es war eigentlich skandalös – und die Öffentlichkeit sollte nichts erfahren. Sie können sich ja nicht vorstellen, wie viel Menschlich-Persönliches an Eitelkeiten in so einem gewagten Unternehmen mit unübersehbaren Optionen die Sicherheit gefährdet….

Tim Boson:

Doch, kann ich mir gut vorstellen…aber es ist erstaunlich, dass es immer wieder passiert. Und dann bekamen sie den Anruf?

Am Illusionenbeschleuniger: Seltsames Roulette im CERN bei Genf.

Im Ring des CERN läuft bald eine seltsame Roulette-Kugel.

Der Ring ist eine Maschine zur wissenschaftlichen Erzeugung
von Irrtümern.

Vorab: Hier soll nicht das CERN schlecht gemacht werden.
Ganz im Gegenteil. Der hier schreibt, ist sogar ein großer Fan.
Da aber selbst ein Irrtum auch eine Information erzeugt, war das
CERN in keinem Fall umsonst. Insofern erzeugt das CERN immer
eine Information.

Hier kann überlegt werden, warum die Idee der Physiker,
man könne sich mit einem Aufwand von Energie dem Urknall
annähern, um soundso viel zigstel Sekunden hinter dem Nullkomma,
um dann das Geheimnis der „Masse“ zu enträtseln –
warum also diese Idee einen mathematischen-Fehler enthält.

Denn das würde ja bedeuten – nach Einstein – das „Geheimnis der Energie“
zu enträtseln. Masse und Energie sind ja äquivalent.

Man kann aber nicht Energie benutzen, um Energie zu analysieren.
Hier klafft ein Mengenwiderspruch im Hinblick auf die Mathematik.
Nach Kurt Gödel kann man nicht mit einer Zeichenmenge (Energie)
die selbe Zeichenmenge (Energie) vollständig abbilden, oder man
müsste dabei in eine andere Reflektionsmenge ausweichen.

In welche?

(Münchhausen kann sich nicht am eigenen Schopf aus dem Sumpf ziehen.)

was wiederum bedeuten würde – zeitlich „hinter“ den Urknall
zu kommen. Das wäre dann aber ein informatorischer Modell-Fehler oder
das Experiment erzeugt selbst einen echten Urknall.
Ein „Miniatur-Urknall“ – ist als Redewendung nett – aber Humbug.

Warum die Quantentheorie und mit ihm das Higgs-Modell objektiv falsch ist
aber sozial – evolutionär – technologisch richtig, wurde hier schon beleuchtet.

Der Urknall selbst kann nicht „unendlich heiß“ oder „unendlich dicht“ gewesen sein.

Was ist Information?

Erkenntnistheoretische Vorbemerkung:

Wenn wir in der Lage sind, zwischen Kausalität
und Nichtkausalität zu unterscheiden, dann hat diese
Unterscheidung eine Ursache.

Entweder: Die Unterscheidung zwischen Kausalität und
Nichtkausalität hat nie stattgefunden, oder der
Begriff „Kausalität“ ist insgesamt sinnlos.

Dann kann es aber auch keine Nichtkausalität geben.

Das menschliche Bewusstsein und mit ihm die Welt
wäre – ad-hoc – ohne Ursache – einfach so da.

Da wir aber zwischen Kausalität
und Nichtkausalität unterscheiden,
gibt es eine Ursache dieser Unterscheidung.
Deshalb muss im ganzen Universum Kausalität
Geltung haben. „Nichtkausalität“ ist demnach ungültig.

Weil jeder Unterscheidung als Ursache ein
Nichtunterschiedenes vorrangeht, scheint die
Annahme eines Urknalls als allererste Unterscheidung
vor allen folgenden Unterscheidungen plausibel.

Dann muss aber jedes Experiment im Kosmos, so
auch das CERN-Experiment lediglich eine Folge-Unterscheidung
von vorrangegangenen Unterscheidungen sein, und sich
somit – kausal vom Urknall entfernen. Es kann sich nicht
„annähern.“

Weil das hieße: Vorlaufende Entscheidungen rückgängig machen.

(Geht nicht – weil dann das Cern-Experiment selbst unmöglich würde.)

Wo die Mathematik versagt,
hilft nur noch die Sprache weiter:

Was sagt das Urknall-Modell:

Es heißt: Man soll sich das ganze All
auf einen einzigen Punkt zusammen denken.

Aber dieser mathematische Punkt

ist noch keine Singularität.
Denn dieser Punkt hat ja noch jemanden,
der den Punkt als Mathematiker denkt.
Also ist dieser Punkt noch nicht allein, singulär.

Der Punkt kommuniziert noch mit dem Denken – und streut dabei Zeit.

Es muss dieser Punkt – ohne Denken – gedacht werden. Ohne Mathematik.

Dann hätte man einen „punktlosen Punkt.“

Aber jetzt hat man immer noch keine Singularität.

Weil das Punktlose des Punktes noch immer mit dem Punkt
bilateral – informativ (unterschieden) zeiträumlich kommuniziert.

Erst wenn man die Punkt-losigkeit des Punktes allein stellt,
also den Punkt löscht – bleibt „losigkeit“ übrig.

Dieses „Punkt-los“ ohne „Punkt“ ist jetzt nur noch das – los.

DIE SINGULARITÄT.

Das los ist die ALL- EINHEIT als Alleinheit.

Keine Zeit. Kein Raum. Keine Bewegung. Kein Name.

STILL. (Hier müsste der Autor und der Leser selbst verschwinden.)

Diese Singularität kann deshalb sowohl unendlich
kalt als auch unendlich heiß sein.

Von Temperatur zu sprechen – ist hier sinnlos.

Aber auch „unendlich“ ist hier sinnlos, weil es keine
Refferenz für eine Unterscheidung nach „endlich“ gibt.

Denn eine Singularität hat keine informellen Skalen,
und keine Sprache, ist temperatur-los

Schon ein Sprechen von Hitze oder Kälte oder Energie
würde die Singularität ent-zweien.
Denn es existiert noch kein bilaterales
Informations-Verhältnis zu einem „Sprecher“ der „Hitze“ oder
„Kälte“ – s a g t – also selbst davon UNTER-SCHIEDEN ist.

Und es existiert noch kein Mathematiker,
der dem ..l0s einen „Punkt“ zeichnet.

Das los der Singularität ist absolut unentschieden.

Das los der Singularität ist unterscheidungs-los

Es hat keinen Namen, trägt keine Information.
Es ist kein Zeichen.

Es ist nicht „Ewigkeit“ und auch nicht das „Nichts“

Es ist das absolut stille los ohne Punkt.

Es ist: Eine reine Schwelle. Hier können auch
keine „Zahlen“ gelten.

Es kann weder eine zeitliche noch eine
räumliche noch eine energetische noch eine
mathematische „Nähe“ zu dieser Schwelle formuliert
werden.

Wenn also die Physiker davon sprechen,
sie würden sich mit der und der Energie einer Zeit
von 0,000000000…..Sekunden „nach dem Urknall“ annähern,
dann ist es in Wirklichkeit umgekehrt:

Mit Erhöhung der Energie entfernt man sich vom Urknall.

Weil jede Handlung in diesem Universum, so auch jede
technische Konstruktion in Zahlen, Gehirnen oder
Beschleuniger-Ringen, die INFORMATIONEN des
Universums vermehrt. Die Zahl der Ereignisse/unterschiedene Ereignisse
irreversibel vermehrt – und damit die Expansion

Da der Mensch selbst ein Ereignis des Universums ist,
vermehrt auch jede menschliche Handlung als pseudodiskretes
Ereignis, die Wärme-Verteilung und Wärme-Streuung irreversibel.

Und damit also – entfernt sich jegliches energetische Ereignis
wärme-streuend vom Urknall.

Wie schon berichtet, sagt die
Quantenphysik also nichts über die Natur aus, sondern
lediglich etwas über das Funktionieren einer gekoppelten
Resonanz zwischen Mensch und Kosmos – in Ausdehnung.
Das Ergebnis dieser Kopplung heisst: „Funktionierende Funktion“,
heisst: Bewusstsein und Technik.

Heisst aber nicht: „Wahrheit Natur“

Dieses „Funktionieren“ wurde bisher
immer für eine „Bestätigung der Richtigkeit“ der
Quantentheorie gehalten.

Bestätigt wurde aber lediglich immer nur die Funktion
des Universums mit dem – technischen – Menschen darin.

Mit der Quantentphysik erreicht die mathematisch-technische
Disketion die Auflösungsgrenze ihrer eigenen Materialität und ihrer
eigenen Energie-Dichte. Deshalb löst sich mit der Quantenphysik
auch der Beobachter in seine reine Zeitlichkeit/Wahrscheinlichkeit auf.

Das „Detektieren“ von Teilchen und das „Erzeugen“
von Teilchen ist das Selbe.

Information und Energie sind äquivalent.

Form und Beobachter der Form können nicht mehr
unterschieden werden.

Die Idee eines diskretierbaren Wechselwirkungs-Teilchens
für die „Masse“muss deshalb versagen, weil Masse der
Symmetriebruch selbst ist.

Der Urknall war das erste Ereignis und
damit die allererste
Reflektion von „Form“ und „Stoff“

Eine Reflektion aber kann nie wieder rückgängig
gemacht werden, es sei denn sie reflektiert auf sich selbst,
aber damit würde sie nur weiter reflektieren – expandieren,
weil auch eine Rückreflektion auf sich selbst, wieder Zeit
verbraucht (schafft) und damit Raum vergrößert.

Masse ist der Unterschied, die In – FORMATION jeglicher „denkbaren“
Skala von UNTERSCHEIDUNGEN. (Formen)

Und die Skala der Unterscheidungen dehnt sich
unterscheidend (reflektierend) immer weiter aus.
Das ist die Expansion des Kosmos.

Mit dem „Urknall“ als erste Unterscheidung,
wurden auch alle Skalen erst geschaffen.

„Masse“ ist DIE informationelle UNTERSCHEIDUNG zwischen „Punkt“ – und dem „los“

Materie/Masse = Prozess= Zeit = Raum

Die sichtbare Materie ist eine Verdichtung, eine Verwirbelung
– der INFORMATION.

Die dunkle Materie ist unverdichtetes informationelles Potential.

Die dunkle Energie ist eine Reflektion des Universums auf sich selbst,
dass sich mit jedem Ereignis selbst reflektiert.
Wie zwei zu einander gestellte Spiegel die Reflektion ins Unendliche
ausdehnen, so dehnt sich auch das Universum sich
mit jedem Ereignis (Reflektion) immer weiter aus – und immer schneller.

Es schafft Ereignis und damit Zeit und damit Raum.

Sollten am Cern „neue“ Teilchen gefunden/erzeugt werden,
haben sie mit „Masse“ nichts zu tun.

Es wären lediglich neu erzeugte Unterscheidungen (Beobachtungen.)

Denkende Wissenschaft: Zeit als Unterschied.

Denkende Wissenschaft in Gedanken bei Wolf Singer, Anton Zeilinger,
Rolf Dieter Heuer, das CERN, Albert Einstein, Max Planck

Dass Zeit eine relative oder lediglich konstruierte Prozessgröße sein soll,
kann angezweifelt werden.

Selbst wo die Zeit in einer Gleichung nicht vorkommt, vergeht Zeit beim Denken
oder Aufschreiben der Gleichung. Auch hier wird thermodynamisch Wärme
irreversibel gestreut. (Auch Zahlen streuen Wärme.)

Ob relativ oder nicht, konstruiert oder detektiert – die Zeit lässt sich nicht weg diskutieren.
Denn noch in der Lichtgeschwindigkeit ist sie enthalten (Weg durch Zeit)

ZEIT ist BEWEGUNG und der ORT, wo sie sich hinbewegt.

Kein Stillstand, nirgends. (2. H.S.)

Also kann hier gesagt werden:
Ohne Zeit – kein Einstein, keine Relativitäts-
Theorie, keine Lichtgeschwindigkeit.

Einstein selbst ist irreversibel. Auch sein Denken hat
Wärme verbraucht und irreversibel gestreut.

Solange die Zeit benötigt wird, um die Lichtgeschwindigkeit anzugeben,
und rechnerisch mit ihr zu operieren, muss Zeit als Prozessgröße
Geltung haben.

Was also ist die Zeit? Sie ist auch Raum – ja.

Aber die tiefere Definition muss lauten: ZEIT IST DER UNTERSCHIED.

Unterschied zwischen vorher/nachher – Unterschied zwischen A und B –

– Unterscheidung zwischen unterschiedenen Zuständen.

– Unterscheidung zwischen „Ich“ – und „Dort“ – ist die Zeit

– Unterscheidung zwischen „Du“ und „Hier“ – ist die Zeit

– Unterscheidung zwischen Ort (Hirn, Zeichen, Teilchen, Zahl) und Impuls (Blut, Fluss, Wärme, Strahlung )

– Unterscheidung zwischen Blut und Hirn (Blut-Hirnschranke.)

– Unterscheidung zwischen Wärme und Zahl (Blut-Hirn-Schranke)

– Unterscheidung zwischen Unterschiedenem (Blut-Hirn-Schranke.)

– Unterscheidung zwischen absolut und relativ. (Blut – Hirn – Schranke)

Ohne Zeit keine Unterscheidung, keine Diskretion – kein Bewusstsein.

Ohne Zeit kein Unterschied zwischen Zeichen, Worten, Zahlen, Orten, Momenten.

Aus diesem Grunde kann die Zeit keine relative Größe sein.

Ohne Zeit keine Mathematik. Auch Mathematik braucht Zeit.

Die Zeit ist die Entropie. Sie fließt kontinuierlich. Von wärmer nach kälter.

Oder die Entropie wird vorübergehend abgeschirmt: (Blut-Hinschranke.)

Die Zeit ist: Die Unterscheidung zwischen
einer Form und dem Beobachter dieser Form.

Die Unterscheidung ist die Zeit, die den Unterschied formt.

Deshalb auch: Zeit = Form

Zeit ist die Unterscheidung, die Zeit braucht. (Zeit schafft)

Zeit ist die Bewegung in Bewegtheit: DES UNTERSCHEIDENS.

Bewegung, Benennung aber braucht immer die ZWEI – das Unterschiedene.

Das Beobachtete des Beobachters – ist die Zeit.

Die ZEIT ist, was die ZWEI sind. Und ZWEI sind immer.

Die EINS kann behauptet werden
nur im Verhältnis zur NICHT-EINS.
(eine absolute – einsame EINS existiert nicht)

Zeit ist Unterscheidung. Unterscheidung macht Form.

Unterscheidung ist Bewegung.

Keine geschlossenen Ränder, nirgends.

Kein Stillstand, nirgends – Also ZEIT.

Masse = Zeit, (verwirbelter Strömungsdruck der Entropie.)

Masse ist gewirbelte Zeit. Masse hat keine Wechselwirkungsteilchen.

Quanten sind konstruktive Resonanzen zwischen unserem diskretiertem Gehirn (Blut-Hirn-Schranke) und
einer kontinuiertlichen Entropie des Universums (energetische Ausdehnung.)

Zahlen, Zeichen, Punkte, Funktionen, Linien, Technik – sind Pseudo-Diskretionen
(Kleine-Fließgleichgewichte, ebenfalls gewirbelt, halb offen, halb geschlossen.)

Die Zukunft braucht eine Physik ohne Blut-Hirn-Schranke. (Ohne Fließgleichgewicht.)

Mathematik ohne Zahlen („warme“ Zahlen.)