Frage sucht Antwort

Kategorie: Physik

  • Science 101: Physik der Felder + Satz von Gauß und Stokes

    An English translation of this article is available here.

    Das Thema des heutigen Beitrags wurde mir auf Threads vom User ‚lepe2018‘ vorgeschlagen, vielen Dank dafür! Wir steigen damit ein, uns die Beschreibungen und Definitionen physikalischer Felder genauer anzusehen. Dazu gibt es ein kleines bisschen Mathematik und ein Anwendungsbeispiel. Danach schauen wir uns die Sätze von Gauß und Stokes an. Diese sind etwas fortgeschrittener und wenn ihr vor diesem Artikel noch keine Berührungspunkte mit dem Thema hattet, steigt ihr eventuell nicht direkt durch. Das ist total in Ordnung und ich versuche wie immer die Themen möglichst anschaulich zu erklären, aber macht euch nichts draus, falls ihr es nicht versteht! Der erste Teil des Beitrags ist ohne Vorwissen zugänglich, erst danach wird es etwas komplizierter.

    So viel zur Vorrede, jetzt beginnen wir mit dem eigentlichen Beitrag. Physikalische Felder sind ein Vielfältiges Thema und ziehen sich durch alle Fachrichtungen der Physik. Grundsätzlich ist das Ziel, eine bestimmte physikalische Größe in ihrer Umgebung zu beschreiben. Das kann zB die Temperatur in einem Raum oder das Gravitationsfeld der Erde sein. Das Feld und seine Umgebung beeinflussen sich gegenseitig. Wenn ich die Heizung im Raum andrehe, verändert sich die Temperatur und wenn ich einen Gegenstand loslasse, fällt er durch die Gravitation zu Boden.

    Felder lassen sich in skalar und vektoriell unterteilen. Ein Skalarfeld ordnet jedem Raumpunkt eine einzelne Größe in Form einer Zahl zu (das nennt man einen skalaren Wert). Das Beispiel dazu wäre hier der Raum mit der Temperatur: Direkt bei der Heizung ist es etwas wärmer, am Fenster vielleicht kühler. Wir könnten jeden Punkt abmessen und eine Zahl in Grad Celsius zuordnen. Das wäre unser Temperatur Feld. Ähnlich wäre es zB mit Luftdruck, der Dichte eines Materials oder elektrischen bzw Gravitations-Potentialen. Ein Vektorfeld ordnet jedem Raumpunkt einen Vektor zu. Das kann man sich anschaulich als einen Pfeil vorstellen. Die Länge des Pfeils gibt die Stärke des Feldes in diesem Punkt an. Außerdem hat ein Vektor, genau wie ein Pfeil immer eine bestimmte Richtung. Der Gegenstand den ich loslasse, fällt immer in Richtung des Feldes, also nach unten. Zwei elektrische Ladungen stoßen sich immer ab und auch eine Meeresströmung ist unterschiedlich stark und fließt in eine bestimmte Richtung.
    Man kann Felder und ihre Eigenschaften mathematisch und physikalisch über den Nabla Operator beschreiben. Je nachdem wie man ihn anwendet, betrachtet man andere Eigenschaften.

    Wende ich den Nabla Operator auf ein Skalarfeld an, berechne ich die Änderung des Feldes in die drei Raumrichtungen. Das ist der sogenannte Gradient und eine vektorielle Größe. Klingt erstmal kompliziert, wir schauen uns also mal ein Beispiel an: Stellt euch vor, ein Mensch steht im Winter draußen. Wir benutzen eine Wärmekamera um ein Bild zu schießen und sehen darauf die Temperatur des Menschen und seiner Umgebung farblich dargestellt. Weil es nur ein Foto ist, haben wir hier ein zweidimensionales Skalarfeld. Der Gradient gibt an, wie sich die Temperatur in alle Richtungen ändert. Das nennt man auch Wärmefluss. Die Wärme fließt von warm nach kalt und der Mensch friert. Außerdem ist der Wärmefluss dort besonders groß, wo eine große Änderung der Temperatur ist. Also genau an der Grenzfläche von Mensch zur Umgebung. Der Wärmefluss ist umso größer, je kälter er draußen ist und umso mehr friert auch der Mensch. Der Nabla-Operator macht also aus einer Zahl einen Vektor

    Es geht aber auch genau anders herum: Wenn ich den Nabla-Operator auf ein Vektorfeld anwende, bekomme ich eine Skalarzahl heraus, die Divergenz. Diese Zahl beschreibt die Quellen und Senken des Feldes und besteht aus der Summe der Ableitungen. Wenn wir also den Wärmefluss des Feldes haben und wiederum dessen Änderung anschauen, sehen wir an welchen Stellen eine Wärmequelle sitzt. In diesem Fall ist der Mensch die Quelle des Wärmeflusses, die kalte Umgebung eine Senke.

    Eine weitere wichtige Eigenschaft eines Vektorfeldes ist die Rotation. Diese erhält man, wenn man den Nabla Operator als Kreuzprodukt auf das Vektorfeld anwendet. Die Rotation gibt Verwirbelungen im Feld an, zB sehr anschaulich wenn man sich Wind oder Meeresströmungen ansieht und ist ebenso eine vektorielle Größe. Wichtig ist auch, sich zu überlegen wie sich diese drei Größen (Rotation, Divergenz und Gradient) untereinander verhalten. Die Rotation des Feldes ist immer frei von Quellen und Senken, die Divergenz also null. Genauso ist die Rotation des Gradienten auch null. Dies lässt sich sowohl mathematisch als auch physikalisch über die Energieerhaltung überlegen.

    Hier seht ihr nochmal abschließend die drei Definitionen, die ich euch gerade vorgestellt habe. Das kleine f bezeichnet ein Skalarfeld, das große F ein Vektorfeld:

    Quelle

    Dazu kommen jetzt einige Beispiele, allerdings ohne eine bestimme Größe. Das Skalarfeld ist farblich codiert. Der Gradient zeigt entlang der Farbverläufe. Bei den Vektorfeldern sehen wir direkt Unterschiede: Feld (a) ist homogen, alle Pfeile zeigen in die gleiche Richtung und sind gleich lang. Feld (b) hat eine Senke in der Mitte, auf die alle Pfeile zeigen und ist stärker, je näher wir an die Mitte kommen. Feld (c) hat Quellen und Senken außerhalb des Bildausschnitts, während Feld (d) keinerlei Quellen und Senken aufweist, sondern ein reines Rotationsfeld ist.

    Skalarfeld (Quelle)
    Verschiedene Vektorfelder (Quelle)

    Jetzt schauen wir nochmal etwas weiter auf kompliziertere Fälle. In der Elektrostatik sowie der Magnetstatik zB beschäftigen wir uns mit verschiedenen Feldern, sowohl skalar, als auch vektoriell. Die Sätze von Gauß und Stokes geben uns die Möglichkeit mittels Divergenz und Rotation zwischen Volumen-, Flächen-, und Kurven-Integration zu wechseln. Das machen wir, um unsere Rechnungen zu vereinfachen, je nachdem was wir gegeben haben.

    Wir beginnen mit dem Satz von Gauß und stellen uns folgende Situation vor: Wir haben eine positive Ladung. Diese ist die Quelle eines elektrischen Feldes. Doch wie viel Ladung haben wir? Wir legen einen unsichtbaren Kasten um die Ladung, berechnen an jedem Punkt im Kasten die Divergenz des vorhandenen Feldes und addieren sie auf. Das entspricht rechnerisch einem Volumenintegral. Der Gauß’sche Satz besagt nun Folgendes:

    Quelle

    Statt also die Divergenz im ganzen Volumen zu addieren, reicht es sich anzusehen, wie sich das elektrische Feld an den Außenseiten des Kastens verhält. Wir können alle Feldbeiträge ansehen, die den Kasten verlassen, diese entsprechen den Quellen innerhalb des Kastens. Dazu kommen alle Beiträge die in den Kasten strömen, also Senken innerhalb des Kastens. Das entspricht einem Flächenintegral über einen geschlossene Fläche. Beide Integrale, also ein Volumenintegral über die Divergenz, sowie das Flächenintegral über das Feld selbst geben das gleiche Ergebnis. Welchen Weg man geht, ist also egal. Wenn man ein konkretes Problem vor sich hat, ist aber meist ein Weg leichter.

    Ganz ähnlich funktioniert der Satz von Stokes. Wir stellen uns einen geraden Leiter vor, durch den Strom fließt. Dieser erzeugt ein Magnetfeld, welches kreisförmig um den Leiter fließt. Es hat keine Quellen und Senken, sondern es handelt sich im ein reinen Rotationsfeld. Doch wie stark ist es? Weil es senkrecht um den Leiter steht, reicht es sich eine Fläche statt eines Volumen anzusehen. Wie legen also ein zweidimensionales Rechteck um das Feld und addieren alle Beiträge der Rotation auf. Das ist ein Flächenintegral. Der Satz von Stokes sagt nun aus:

    Quelle

    Wir können also statt über die ganze Fläche zu integrieren nur das Feld selbst über den geschlossenen Rand des Rechtecks integrieren. Das ist ein Kurvenintegral über eine geschlossene Kurve. Alle „innenliegenden“ Beiträge verschwinden, genau wie beim Satz von Gauß. Das ist im folgenden Bild nochmal visualisiert. Die gegenläufigen Pfeile heben sich auf und nur die auf dem Außenrand bleiben über.

    Quelle

    Auch hier gilt: Beide Wege führen ans Ziel, oft ist aber auch hier ein Weg einfacher.
    Der Satz von Gauß und der von Stokes sind sich also im Grunde sehr ähnlich. Mathematisch vereinfachen sie die jeweiligen Ausdrücke um eine „Ebene“, einmal von Volumen auf Fläche und von Fläche auf Kurve. Die jeweiligen Beiträge Innenflächen des Volumen sowie die Innenkurven der Fläche heben sich gegenseitig auf. Das ist die wichtigste Erkenntnis der beiden Sätze. Die Integration dann durchzuführen ist reine Übungssache.

    Ich danke euch fürs Lesen bis hier hin und wünsche euch besonders viel Erfolg beim Lernen, falls die Inhalte für euch relevant sind! ✨🫶
    Wie immer freue ich mich auf euer Feedback, Abos und wenn ihr die Beiträge mit Freunden teilt. Ich wünsche euch Frohe Weihnachten, schöne Feiertage und einen Guten Rutsch ins Neue Jahr!

  • Ultrakurze Laserpulse – Wie kann man sie herstellen und wozu benötigt man sie?

    Ich habe diese Woche mein letztes reguläres Physikmodul hinter mich gebracht und möchte euch heute ein paar Basics aus der Vorlesung mitbringen. Es geht um Ultrakurze Laserpulse, ein sehr spannendes Forschungsthema mit vielen möglichen Anwendungen. Wie der Name schon vermuten lässt, geht es um extrem kurze Laserpulse, deren Länge im Pico oder Femtosekundenbereich liegt. Das entspricht 10^-12 bzw. sogar 10^-15 Sekunden! Falls euch das nichts sagt, könnt ihr in diesem Beitrag nochmal nachlesen, wie wissenschaftliche Größenordnungen funktionieren.

    Ein Laser kann durchgehend betrieben werden, ein Laserpointer zB ist ein kontinuierlicher Laserstrahl. Eine kleine Wiederholung zum Thema Laser mit generellen Erklärungen findet ihr hier. Man kann aber eben auch Laserpulse erzeugen. Aber, wozu? Generell gilt: Möchte ich einen sehr kleinen Gegenstand genau anschauen, brauche ich eine noch kleinere bzw feinere Größenskala, um die Details abzubilden. Möchte ich ein extrem kurzes Ereignis abbilden, brauche ich ein noch kürzeres Ereignis um den Verlauf korrekt darzustellen. Möchte man zB eine Bewegung fotografieren, muss die Belichtungszeit der Kamera kürzer als die Bewegung selbst sein, um ein scharfes Bild zu erhalten. Das wird über den Verschluss am Objektiv erreicht. Mache ich dann viele Bilder schnell hintereinander, kann ich die gesamte Bewegung anhand der Bilderstrecke erkennen. So hat Eadweard Muybridge im Jahr 1878 eindeutig zeigen können, dass ein Pferd im Galopp tatsächlich für einen kurzen Moment mit allen vier Hufen den Boden verlässt:

    The Horse in Motion, Muybridge (1878)

    Die Bewegung von Molekülen und auch chemische Reaktionen laufen so schnell ab, dass eben genau diese Ultrakurzen Laserpulse im Femtosekundenbereich nötig sind, um sie darzustellen. Dazu werden meist „Pump-Probe“ Experimente genutzt. Ein Pump-Strahl löst das gewünschte, zu beobachtende Ereignis aus. Der Probe-Strahl wird dann zeitversetzt darauf gerichtet und „beobachtet“ das Ereignis so zu verschiedenen Zeitpunkten. Das Ergebnis ist äquivalent zu einer Bilderstrecke, nur eben für zB chemische Reaktionen.
    Ein möglicher Anwendungsbereich ist zB die Medizin: Man kann mit einem Laser Gewebe untersuchen und anhand der Messwerte erkennen, ob es sich um normales Gewebe oder zB Tumorgewebe handelt. Der gleiche Laser kann, in einem anderen Modus betrieben, eben dieses Tumorgewebe dann zerstören. Man kann aber natürlich auch einfach „nur“ beobachten und den Laser somit als eine Art sehr präzises 3D Mikroskop verwenden. Weitere Anwendungen liegen in ebenso sehr präziser Materialbearbeitung auf der Nano-Ebene, die immer relevanter für die Entwicklung von neuer Technik wird.

    Vergleich von Materialbearbeitung durch Standard Laserpulse vs durch ultrakurze Laserpulse. (Quelle)

    Die zweite große Frage des Beitrags ist natürlich, wie man solche Laserpulse herstellen kann. Denken wir wieder an das Beispiel der Kamera und der Belichtungszeit, könnten wir uns eine Art Schalter vorstellen, der extrem schnell den Laser an und aus schaltet. Und sehr grob gefasst, gibt es dieses Konzept in Form des sogenannten Q-Switchings. Diese können typischerweise Pulse im Nanometer-Bereich erzeugen. Das ist für uns aber immernoch viel zu lang! Wir möchten nochmal einige Größenordnungen kürzere Pulse erzeugen, eine Femtosekunde ist nämlich nur ein Millionstel einer Nanosekunde (man kann sich im Grunde überhaupt gar nicht vorstellen wie klein das tatsächlich ist). Um Femtosekunden-Pulse zu erzeugen, wird das Prinzip des Mode-Locking ausgenutzt. Innerhalb des Lasers befinden sich zahlreiche „erlaubte“ Frequenzen, die sogenannten Moden. Erlaubt bedeutet, dass sie stehende Wellen im Laser-Resonator bilden. Beim Mode-Locking haben diese Wellen eine feste Phase zueinander. Das führt dazu, dass an einem Punkt alle Wellenmaxima genau am gleichen Punkt liegen und der Laserstrahl dort punktuell eine hohe Intensität hat, drumherum aber nicht. Und genau das ist ein Laserpuls. Je mehr Moden gekoppelt werden, desto kürzer wird der Puls und desto höher sein Intensitätsmaximum.

    Demonstration des Mode-Locking: Haben die Moden den genau richtigen Abstand bilden sie kurze Pulse mit hoher Intensität. Je mehr Moden, desto kürzer und intensiver der Puls. (Quelle)

    Bei Millionen von gekoppelten Moden kann die Leistung im Peak des Laserpulses bis zu 40 GW entsprechen. Zum Vergleich, ein Atomkraftwerk liefert Leistungen von 1-2 GW. Weil der Puls aber so unvorstellbar kurz ist, ist die verbrauchte Energie am Ende aber nicht hoch und kann in standardmäßigen Labors betrieben werden. Dennoch müssen die optischen Bauteile wie Linsen, Filter, Spiegel und Detektoren extrem robust sein, um den hohen Intensitäten Stand zu halten.
    Falls euch dieser Beitrag gefällt, überlege ich in einem zweiten Beitrag mehr auf zB diese optischen Bauteile einzugehen und wie man die Ultrakurzen Laserpulse zusätzlich modifizieren kann um gewünschte Eigenschaften hervorzurufen. Habt ihr Intresse daran, darüber etwas zu Lesen? Dann lasst mich das doch gerne Wissen!

  • Was ist ein Schneckenkönig und was hat er mit Quantenphysik zu tun? – Chiralität

    Es ist gerade Sommer, ein etwas verregneter noch dazu und so habt ihr ja vielleicht auch dieses Jahr schon die ein oder andere Weinbergschnecke beobachten können. Ist euch dabei eventuell schonmal aufgefallen, dass sich quasi alle Schneckenhäuser der Weinbergschnecke in die gleiche Richtung, nach rechts, winden? Schätzungen zufolge hat nur etwa eine von 40.000 Weinbergschnecken ein nach links gewundenes Häuschen. Weil diese so selten sind, nennt man sie Schneckenkönig und sie sind teilweise sogar in Museen und alten Naturwissenschaftlichen Sammlungen zu sehen.

    Wie kommt es dazu, dass Weinbergschnecken mit linksgewundenen Häusern so selten sind?
    Tatsächlich ist nicht nur das Haus der Schnecke, sondern ihre gesamte Anatomie spiegelverkehrt zu den meisten anderen Schnecken angeordnet. Sie können sich deshalb auch nicht mit anderen Weinbergschnecken paaren und fortpflanzen. Eine Weitergabe der Gene ist somit kaum möglich. Allerdings gibt es mittlerweile auch Forschungsergebnisse die nahelegen, dass die Drehrichtung des Hauses der Schnecke gar nicht genetisch vererbt wird, sondern viel eher eine Art Laune der Natur in der frühen Embryonalentwicklung der Schnecke ist.

    Links der seltene Schneckenkönig, rechts die klassische Weinbergschnecke (Quelle)

    Bei den Weinbergschnecken ist also der gesamte Organismus mancher Exemplare gespiegelt. Das Prinzip der Spiegelung tritt in der Natur auf allen möglichen Ebenen auf: Bei ganzen Lebewesen, einzelnen Teilen von Organismen, aber auch auf molekularer Ebene und sogar bei Quantenteilchen.
    Der Fachbegriff hierfür lautet „Chiralität“, was sich mit dem Wort „Händigkeit“ übersetzen lasst. Unsere eigenen Hände sind nämlich bereits ein sehr gutes Beispiel für die diese fundamentale Symmetrieeigenschaft: Sie sind ihr jeweiliges Spiegelbild. Anders gesagt, können wir unsere Hände nicht allein durch Drehung überdecken, sondern müssen eine der beiden Hände umdrehen, sodass die Handflächen sich berühren. Dann liegen sie genau übereinander.

    Viele Moleküle weisen diese Spiegelsymmetrie auf. Sie bestehen aus den gleichen Bausteinen, sind aber jeweils spiegelverkehrt angeordnet. Das Interessante hierbei ist, dass die beiden Enantiomere genannten Versionen oft unterschiedliche Eigenschaften haben. Der chirale Duftstoff Carvon beispielsweise kann von der menschlichen Nase als Kümmel (S-Carvon) oder Minze (R-Carvon) wahrgenommen werden. Auch Medikamente sind oft chiral, hier können die verschiedenen Eigenschaften ernsthafte Folgen haben. Der Wirkstoff Thalidomid hat eine beruhigende, sedierende Wirkung (R-Thalidomid), löst aber auch schwere Schäden bei Föten im Mutterleib aus, wenn er von Schwangeren eingenommen wird (S-Thalidomid). In den 50ern und 60ern wurde es unter dem Namen Contergan speziell als Schlafmittel für Schwangere vermarktet, was dazu geführt hat, dass circa 5000 bis 10000 Kinder mit teils starkem Fehlbildungen auf die Welt kamen. Zusätzlich gibt es eine große Dunkelziffer an Fehl- und Totgeburten, die wohl ebenfalls durch das Medikament verursacht wurden.

    Es ist also sehr wichtig, chirale Moleküle auf vielen Ebenen gut untersuchen zu können, aber auch gegebenenfalls Stoffe in denen beide Enantiomere vorhanden sind, sauber trennen zu können. Mit dieser Forschung auf einem sehr fundamentalen, physikalischem Level beschäftigt sich zB der Sonderforschungsbereich ELCH in Kassel. Auch meine Arbeit in der theoretischen Quantenmechanik gehört dazu. So kann man zB aus der Interaktion von chiralem Licht mit chiraler Materie messbare Unterschiede für die verschiedenen Enantiomere ableiten. Das war Teil meiner Bachelorarbeit. Aktuell arbeite ich an meiner Master Thesis, in der verschiedene Wege der Ionisation im Bezug mit Chiralität untersucht werden sollen. Falls ihr dazu etwas mehr Lesen wollt, findet ihr ein Paper der Uni Kassel dazu hier.

    Auszug aus dem verlinkten Paper.

    So schnell kommen wir also von Schneckenhäusern zur Quantenphysik! Ich hoffe wie immer dieser Beitrag hat euch gefallen. Ich freue mich außerdem über Feedback und Unterstützung in Form von Abos, Likes und wenn ihr diesen Beitrag mit euren Freunden teilt.

  • Science 101: Wie funktioniert ein Laser? (+ Farbstofflaser als Beispiel)

    Über Laser denken wir heute nicht wirklich viel nach, weil sie mittlerweile überall in unserem Alltag existieren. Als Element in Bühnenshows, als Laserpointer zur Belustigung von Katzen oder in jedem CD Player finde wir diese Lichtquelle. Doch wie funktionieren sie überhaupt? Das möchte ich euch heute möglichst kurz und verständlich erklären. Danach erkläre ich euch dann ganz konkret noch das Beispiel Farbstofflaser (denn mit denen hatte ich aktuell gerade ein wenig zu tun).

    Wir fangen diesmal ganz vorne an, das Wort LASER steht für „Light Amplification by Stimulated Emission of Radiation“. Und theoretisch steht da schon alles was wir wissen müssen: Es handelt sich um verstärktes Licht, welche durch stimulierte Emission von Strahlung erzeugt wird.
    Stimulierte Emission liegt vor, wenn wir ein angeregtes Atom bzw Molekül mit einem Photon bestrahlen und in Folge das Molekül relaxiert und dabei wird ein weiteres Photon emittiert. Sprich: Ein Photon rein, zwei raus. Stellen wir uns vor das ganze passiert zwischen zwei Spiegeln und die Photonen treffen immer wieder auf das sogenannte Gain Medium und vervielfältigen sich. Das ist die Grundidee eines Lasers.

    Einfacher Aufbau eines Lasers (Quelle)

    Allerdings müssen dafür die Moleküle im Gain Medium ja schon angeregt sein. Es müssen sogar mehr Elektronen innerhalb des Moleküls angeregt sein als im Grundzustand, um den Laser zum Laufen zu bringen. Diesen Zustand nennt man Besetzungsinversion. Wir müssen also erst Energie in das System reinpumpen. Das wurde früher zB mit Blitzlampen gemacht. Heute allerdings wird meistens ein zweiter, leistungsstarker Pumplaser verwendet, dessen Energie möglichst perfekt zum dem Energielevel passt, auf welches man die Elektronen bringen möchte. Die Elektronen in den Molekülen werden auf das Energielevel gepumpt und jetzt kann die stimulierte Emission gelingen. Weil ein Lasersystem aber nie aus nur zwei Energieleveln besteht, sondern über strahlungslose Energielevel Energie verloren geht, hat das Photon, das wir aus dem System gewinnen immer eine längere Wellenlänge und somit weniger Energie, als die Photonen die über den Pumplaser hereingehen. Laser sind energetisch also sehr kostspielig, haben aber tolle Eigenschaften: Die Sonne strahlt ihr Licht chaotisch, random und alle Wellenlängen auf einmal. Ein Laser hat jedoch kohärentes und meist monochromes Licht, welches für die meisten Experimente benötigt wird. Damit das Licht aber nicht nur zwischen den zwei Spiegeln immer mehr wird, ist einer der Spiegel ein wenig durchlässig, dieser nennt sich Auskopplungsspiegel. Dort kommt der eigentliche Laser Strahl heraus.

    Einfaches Energie Schema für Vier Level (Quelle)

    Ein Beispiel für Lasersysteme sind die Farbstofflaser. Die Moleküle sind komplex und haben viele Übergänge, wodurch potentiell viele Wellenlängen als Laser genutzt werden können. Man sagt, der Laser ist breitbandig. Ohne Filter wird jedoch nur eine dominante Wellenlänge verstärkt. Man kann aber einen Filter in das System einbauen, der nur eine bestimmte Frequenz bzw Wellenlänge durchlässt. Dann wird diese verstärkt. Ein solcher Lyot-Filter besteht auf einem Polarisationsfilter, sodass die Lichtwellen in genau einer Ebene schwingen. Danach kommt doppelbrechendes Glas, welches jede einzelne Wellenlänge mit einem etwas anderen Winkel schwingen lässt. Mit einem zweiten Polarisationsfilter können wir jetzt genau die Ebene einstellen, welches das Licht hat, das wir verstärken wollen. Das Ergebnis ist ein eindrucksvoll flüssiger Übergang zwischen den verschiedenen Wellenlängen die das jeweilige Farbmolekül zu bieten hat.

    Schema eines Lyot-Filter (Quelle)

    Hier findet ihr ein kleines Video von einem Farbstofflaser, welchen ich vor ein paar Wochen im Rahmen eines Experiments feinjustiert habe und den Filter teste:

    Eigenes Video

    Ich hoffe wir immer ihr findet diesen Beitrag spannend und ich konnte euch das Konzept eines Lasers näher bringen. Bitte gebt mir gerne Feedback ob ihr die Erklärungen verständlich findet oder gebt mir Tipps, was ich besser machen könnte.

    Vielen Dank! Für die nächsten Wochen habe ich schon einige gute Themen in der Pipeline, es geht wieder um Frauen in der Wissenschaft und um einige klassische Mythen mit denen ich aufräumen möchte. Bleibt also gerne dran und abonniert den Blog, darüber freue ich mich sehr!

  • Unterschätzte Frauen – Emmy Noether

    Die Geschichte, die ich euch heute erzähle, zeigt deutlich wie abschätzig und wenig würdigend Frauen in der Wissenschaft lange Zeit behandelt wurden. Sie zeigt auch deutlich, dass es dabei keine Ausnahmen gibt, egal wie wichtig und bedeutet der wissenschaftliche Beitrag auch sein mag.

    Es gibt alleine neun Sätze bzw mathematischen Begriffe, die nach Emmy Noether benannt sind. Das Noether-Theorem hat bis heute einen maßgeblichen Einfluss auf die theoretische Physik und wird heute als ein Meilenstein betrachtet, obwohl es Jahrzehnte dauerte bis das Ausmaß seiner Bedeutung in der wissenschaftlichen Welt erkannt wurde. Heute kommt man während des Physikstudium nicht mehr daran vorbei. Was genau das Noether-Theorem besagt, könnt ihr in einem separaten, kleinen Beitrag hier nachlesen, sobald er online ist.
    Außerdem gibt es neben vielen Straßen und Schulen die nach ihr benannt sind auch das Emmy Noether Programm, welches junge Wissenschaftler:innen unterstützt und sogar Bestrebungen der Studierenden Göttingens, die Universität in „Emmy-Noether-Universität“ umzubenennen. Tatsächlich wäre sie damit die dritte Hochschule und sogar die erste Universität in Deutschland, die nach einer Frau benannt ist. Es wirkt gerade erstmal so, als sei mit der Anerkennung von Emmy Noethers Leistungen alles tutti, oder? Das sah zu ihren Lebzeiten und lange danach noch sehr anders aus.

    Emmy Noether wird 1882 in Erlangen geboren. Sowohl ihr Vater, als auch später ihr kleiner Bruder sind Professoren der Mathematik. In der Schul- und Studienzeit von Emmy Noether sehen wir zunächst einige Parallelen zu der Geschichte von Clara Immerwahr. Wie Immerwahr stammt auch Emmy Noether aus einer eher liberalen jüdischen Familie, in der die weiterführende Schulbildung für Mädchen selbstverständlicher war, als zB in christlichen Familien zu dieser Zeit. Da allerdings auch die höheren Töchterschulen nicht darauf ausgelegt sind, auf das Abitur vorbereiten und besonders im naturwissenschaftlich-mathematischem Bereich nur sehr oberflächlich behandelt werden, konnte sie nicht einfach ein Studium aufnehmen. Ähnlich wie auch Clara Immerwahr, wählt den Noether den einzig nötigen Umweg, der sich als Frau damals bot: Sie legt die Staatsprüfung als Lehrerin ab, ohne vorzuhaben diesen Job auszuüben. Stattdessen durfte sie sich durch diese Staatsprüfung und eine zusätzliche Sondererlaubnis, die sie uA durch die Unterstützung ihres Vaters erhielt, als Gasthörerin an der Universität Erlangen immatrikulieren. Ebenso mithilfe eine Sondererlaubnis durfte sie dann schließlich das Abitur in Nürnberg ablegen und ab 1903 ein reguläres Studium in Bayern aufnehmen. Dieses schließt sie 1907 mit einer Promotion in der Invariantentheorie ab. Es folgt eine Periode der inoffiziellen Arbeit an der Universität Erlangen, in der sie zwar alle Pflichten einer wissenschaftlichen Mitarbeiterin hat, jedoch ohne jegliche Bezahlung arbeitete.

    Emmy Noether, vor 1910 (Quelle)

    1915 wird sie von Felix Klein und David Hilbert nach Göttingen, dem damaligen Weltzentrum für Mathematik, geholt. Mit ihrer Unterstützung versucht sie schließlich dort zu habilitieren, was Frauen verboten war und sie zum ersten weiblichen Fakultätsmitglied an einer deutschen Hochschule gemacht hätte. Allein den Antrag auf Habilitation zu stellen, war mit viel Gegenwind verbunden und schlussendlich nur möglich, weil sich Klein und Hilbert für sie einsetzten. Das bestätigt, was auch viele Studien nahelegen: Diskriminierende Strukturen lassen sich nur dann verringern, wenn insbesondere die Menschen in Machtpositionen sich dieser bewusst werden und eben diese Strukturen „von oben“ abbauen [mehr dazu könnt ihr hier lesen]. In diesem Fall jedoch genügt auch die Unterstützung ihrer Kollegen nichts, der Antrag wird abgelehnt. Der eher faule Kompromiss, der geschlossen wird ist, dass Emmy Noether wieder einmal die Arbeit an der Universität aufnehmen darf, ohne jedoch für irgendetwas bezahlt zu werden. Das ist ihr vor Allem durch familiäre Unterstützung bzw eine Erbschaft möglich, sie lebt allerdings wohl in extrem sparsamen Verhältnissen. Es diese Zeit in der das berühmte Noether-Theorem entsteht und nach Ende des ersten Weltkriegs und mit Beginn der Weimarer Republik darf sie schlussendlich auch als Frau habilitieren. Sie erhält zunächst den Status einer Privatdozentin, dann wurde sie 1922 zur ersten Professorin Deutschlands. Doch selbst das brachte ihr keinerlei Bezahlung ein und sie war nicht verbeamtet. Erst 1923 bekam sie durch einen Lehrauftrag ein kleines Gehalt. Davon leben konnte sie kaum und er musste jedes Jahr neu ausgehandelt werden. Ihre Forschung zur Algebra gilt in der Mathematik als bahnbrechend und Mitbegründung einer neuen Ära, der modernen Algebra

    Obwohl sie nicht verbeamtet war, wurde sie aufgrund ihres jüdischen Glaubens im Jahr 1933 zunächst beurlaubt und dann ganz ihrer Lehrbefugnis entzogen. Da jetzt selbst ihr kleines Einkommen wegfällt, zieht es sie in die USA, wo sie in Pennsylvania eine Gastprofessor antritt. Mit über 50 Jahren und fast dreißig Jahre nach ihrer Promotion ist diese Stelle die erste, deren Gehalt annähernd ihrer Qualifikation entspricht. Allerdings stirbt sie bereits kurz später 1935 an den Nachfolgenden einer Operation. Viele der oben genannten Ehrungen werden Emmy Noether erst um die Jahrtausendwende zuteil. Auch die immense Bedeutung ihrer Arbeit wird erst mit der Zeit sichtbar. Trotzdem betrachte ich persönlich den Umgang heute mit ihr als positiv. Das Unrecht, welches sie zu Lebzeiten erfahren hat, können wir nicht ungeschehen machen. Doch ich habe den Eindruck, dass ihr Werk und ihr Leben heute in der wissenschaftlichen Welt gut gewürdigt werden. Es ist allerdings umso wichtiger, aus ihrer Geschichte jetzt zu lernen und den jungen Frauen in der Wissenschaft im speziellen, sowie generell allen jungen Wissenschaftler:innen, die Unterstützung zu geben, die sie brauchen. Denn besonder für diese Unterstützung der jungen Wissenschaftler:innen hat sich Emmy Noether immer sehr stark eingesetzt.

    Ich denke, dies ist ein gutes Schlusswort für den heutigen Beitrag! Ich freue mich wie immer über Kommentare/Anmerkungen/etc und möchte mich ganz herzlich bedanken, dass sich auf diesem kleinen Blog mittlerweile 20 Abonnenten eingefunden haben. Das mag für Einige keine große Zahl sein, mir bedeutet es sehr viel! 💓

  • Belebtes Wasser, belebtes Was? – Anti Schwurbel Coaching

    Ich habe euch gefragt, welche Konzepte aus den esoterischen/parawissenschaftlichen Kreisen ich mal wissenschaftlich unter die Lupe nehmen soll und ihr habt sehr fleißig viele wilde Stichworte genannt.
    Ich hab mich dazu entschlossen, für den ersten Post mal ein paar Behauptungen rund um das (sehr weite) Feld „Wasser“ herauszusuchen.

    Es fiel zB das Stichwort Granderwasser, benannt nach Johann Grander, der nach eigenen Angaben Methoden entwickelt haben will um Wasser zu „beleben“. Generell wird dieses Produkt aber auch unter anderen Bezeichnungen wie „belebtes Wasser“, „vitalisiertes Wasser“ oder „strukturiertes Wasser“ teuer verkauft. Das Granderwasser kostet stolze 18,50€ für 1L. Es wird hergestellt, indem man Wasser an einem mit „Informationswasser“ (noch eine andere Bezeichnung für das gleiche Produkt) gefüllten Gefäß vorbeifließen lässt. Angeblich würden nur durch das vorbeifließen dann diese nicht näher bekannten Informationen und ebenso nicht näher bekannte Eigenschaften auf das normale Wasser übertragen werden. Es wird hier im Grunde nichtmal versucht zu erklären was mit dem Wasser passiert, eher spekuliert, dass sich dabei wohl die Struktur der Wassers ändern müsse. Allerdings wird an Wirkungen wirklich das Blaue vom Himmel versprochen: Positive Wirkungen auf die Haltbarkeit von Lebensmitteln, reinere Haut wenn man sich damit wäscht, sogar bessere Gesundheit soll es einem bescheren. Noch vor 15 Jahren betrug der Jahresumsatz des Unternehmens Grander circa 12,7 Millionen €, in 2023 immerhin nur noch knapp die Hälfte.

    Was sagt die Wissenschaft dazu? Natürlich, dass nichts davon stimmt.
    Granderwasser hat …

    … Keine entgiftende Wirkung, wie behauptet.

    … Keine Wirksamkeit in der Trinkwasserhygiene, besonders im Hinblick auf mikrobizide/desinfizierende Wirkung, wie behauptet.

    … Keinerlei Änderung in Oberflächenspannung, pH Wert, Härte, Leitfähigkeit oder Sauerstoffgehalt im Vergleich zu normalem Wasser, wie behauptet.

    … Keine UV-absorbierende Wirkung, wie behauptet.

    … Keinen Einfluss auf das Wachstum von Pflanzen, der sich von dem Einfluss von normalem Wasser unterscheidet, wie behauptet.

    Weitere Behauptungen lassen sich allein physikalisch schon widerlegen:
    Granderwasser sei angeblich in eine höhere Ordnung versetzt. Da das ursprüngliche Wasser und das „Informationswasser“ komplett getrennte und abgeschlossene Systeme sind, ist es unmöglich, kann das Granderwasser gemäß der Thermodynamik lediglich in einen Zustand niedriger Ordnung übergehen. Der Übergang in einen Zustand höherer Ordnung würde die Entropie abnehmen lassen.
    Auch eine bleibende Umstrukturierung des Wassers ist nicht möglich. Zwar sind die Wassermoleküle tatsächlich über Wasserstoffbrückenbindungen (viele Punkte bei Scrabble) zu sogenannten Clustern verbunden und die Firma Grander macht sich dies zu nutzen, indem sie behaupten die Clustern würden bei dem Prozess umstrukturiert, jedoch sind diese Cluster unfassbar kurzlebig. Man geht davon aus, dass diese Cluster sich permanent auf einer Zeitskala von Pico-Sekunden, also 10^(-12) Sekunden umordnen. Das ist das Millionstel einer Millionstel Sekunde. Es ist also unmöglich die Cluster gezielt und langfristig zu beeinflussen.

    Mit dieser angeblichen „Strukturänderung“ wirbt allerdings nicht nur Grander, es geistern immer wieder Posts durch das Netz, wie man sich ganz besonderes Wasser einfach selbst herstellen kann: So behauptet zB Kerstin Rosenberg, die sich der Ayurveda verschrieben hat, dass einkochen des Wasser „den Molekularverband verdichte und so die immunstärkenden Eigenschaften intensiviere“. Was in Wirklichkeit beim Einkochen passiert ist leider nicht so spektakulär, das Wasser wird halt einfach weniger und tatsächlich können dabei Keime abgetötet werden. Besonders dieser Aspekt ist gerne vergessen, wenn wir uns in Mitteleuropa mit Trinkwasser beschäftigen. Doch wenn wir uns speziell Konzepte wie Ayurveda betrachten, welche sich auf Jahrhunderte alte Traditionen beruft, ergibt es plötzlich Sinn, dass man das Einkochen bzw vielmehr das Abkochen von Wasser als wichtige Praxis betrachtet. Hat man jedoch Zugang zu sauberem Trinkwasser, hat das eingekochtes Wasser keinerlei Vorteile zu ’normalem‘ Wasser.

    Nun ist dieser „Haushaltstipp“ immerhin wesentlich günstiger, als fast 20€ für eine Flasche Granderwasser zu blechen und wie ihr euch denken könnt geraten viele Hersteller die irgendwie mit ihrem „belebten“ Wasser werben auch ins Fadenkreuz der Justiz. Es finden sich ganze Listen mit Ordnungs- und Bußgeldern an die Unternehmen, doch am besten hat mir die Entscheidung des Oberlandesgericht Wien gefallen: Es sieht eine sachliche Begründung darin, das Granderwasser als „aus dem Esoterik-Millieu stammender, parawissenschaftlicher Unfug“ zu bezeichnen. Und ich glaube, das fasst es am Ende doch ganz wunderbar zusammen.

    Welche anderen Konzepte und Behauptungen aus der Esoterik wollt ihr einmal wissenschaftlich bewertet sehen?

  • Frage Sucht Antwort Spezial – 2000 Physikfakten (#0001 – #0020)

    #0001
    Albert Einstein bekam den Nobelpreis 1921 nicht für seine Relativitätstheorie, sondern für die Interpretation des Photoelektrischen Effekts im Jahr 1905.

    #0002
    Das Wort Physik ist zurückzuführen auf das Griechische Wort „physis“ also „Natur“ oder „Beschaffenheit“. Das zugehörige Adjektiv lautet „physikos“ und bedeutet entsprechend „natürlich“.

    #0003
    Es werden zwar schon seit der Antike verschiedenste Erkenntnisse überliefert, die wir heute in die zahlreichen Untergruppen der Physik verorten, aber als eigenständige Naturwissenschaft hat sich die Physik erst in der Neuzeit etabliert. Mit Beginn des 17. Jahrhunderts wurden zB durch Galileo Galiei Messmethoden, mathematische Auswertung und Erkenntnisfindung wie wir sie noch heute nutzen entwickelt. Sie setzten sich somit von der Naturphilosophie aus der Antike aber auch verschiedensten theologischen Ansätzen aus zur Erklärung von Vorgängen ab.

    #0004
    Die moderne Quantenmechanik wurde maßgeblich im Jahr 1925 formuliert. Sowohl die Matrizenmechanik von Heisenberg, als auch die Schrödingergleichung sind bahnbrechend.

    #0005
    Gleich zwei Messmethoden in der Laseroptik haben den Namen „Frosch“. Zum einen das FROG (frequency resolved optical grating) und das GRENOUILLE (grating eliminated no nonsense observation of ultrafast incident laser light e-fields), wobei letzteres auf dem ersten basiert.

    #0006
    Marie Curie ist 1903 die erste Frau die einen Nobelpreis erhält. Sie ist außerdem im Jahre 1911 die erste Person überhaupt, die einen zweiten Nobelpreis erhält. Nach ihr ist dies nur 4 weiteren Männern gelungen. Außerdem sehr besonders ist, dass sie den Nobelpreis in verschiedenen Bereichen erhielt, den ersten in Physik, den zweiten in Chemie. Vergleichbares hat nur Linus Pauling geschafft, der einen Nobelpreis in Chemie (1954) und den Friedensnobelpreis erhielt (1962).

    #0007
    Aus physikalischer Sicht gibt es keinerlei Zweifel an der Überlegenheit von E Mobilität gegenüber konventionellen Verbrennern oder E-Fuels.

    #0008
    Selbst viele scheinbar einfache physikalische Probleme wie ein Fadenpendel können oft nicht analytisch gelöst werden. Man muss die ausgehenden Gleichungen erst linearisieren bzw approximieren um eine lösbare Gleichung zu erhalten, oder kann zB mit Reihen entwickeln um sich der genauen Lösung zu nähern.

    #0009
    Als Einstein seine Relativitätstheorie veröffentlichte, war sie genau das: Eine Theorie ohne experimentellen Hintergrund.
    Er schlug deshalb drei Methoden vor um sie zu überprüfen, die heute als „klassische Tests der ART“ bekannt sind:
    1. Die Periheldrehung des Orbits von Merkur
    2. Die Ablenkung von Licht durch die Gravitation der Sonne
    3. Die Gravitative Rot-Verschiebung von Licht.

    #0010 (01. Mai Special)
    Der gemeine Physiker liegt gerne in der Sonne und kippt kalte Getränke. Manchmal finden sich die Physiker dafür sogar in Gruppen zusammen, um ihrem ersten Gebot (Newtons Trägheitsprinzip) zu frönen und es zu huldigen.

    #0011
    Die Neigung der Erdachse von gut 23° unterliegt einer Präzession. Das bedeutet die Ausrichtung der Drehachse rotiert in etwa 25’800 Jahren einmal um sich selbst. So kommt es, dass zB unsere Sternbilder nicht mehr dort sind, wo sie vor tausenden Jahren mal verortet wurden und unsere Sternzeichen alle um etwa eines nach vorne rücken.

    #0012
    Die Heisenbergsche Unschärfe ist im Kern weniger ein physikalisches sondern ein mathematisches Phänomen, welches auf physikalische Prozesse angewandt wird.

    #0013
    Aus der Heisenbergschen Unschärfe (Energie/Zeit) lässt sich ableiten, dass das Vakuum nie ganz „leer“ sein kann, da immernoch Quantenfluktuationen in Form von virtuellen Photonen auftreten.

    #0014
    Das Universum ist in etwa 0,43 Exasekunden alt. Das entspricht circa 4,3 x 10^17 Sekunden oder 13,7 Milliarden Jahren.

    #0015
    Ein schwarzes Loch mit der Masse der Erde hätte einen Schwarzschild-Radius von nur etwa 9 mm und wäre damit so groß wie eine Kirsche

    #0016
    Die Maxwell Gleichungen bilden das Fundament der klassischen und Quanten-Elektrodynamik, der Optik und der Elektrotechnik. Vier scheinbar simple Gleichungen, auf denen aber unzählige Phänomene aufbauen.

    #0017
    Die Sonde Mars Climate Orbiter ging 1999 verloren, weil der Hersteller der Navigationssoftware in imperialen Einheiten (Pfund/Zoll/etc.) rechnete, statt wie die NASA standardmäßig in metrischen Einheiten (Kilogramm/Meter/etc.). Die Sonde war dadurch nicht 150 km, sondern nur 57 km von der Marsoberfläche entfernt und wurde durch die Reibungshitze der dichten Atmosphäre gänzlich zerstört.

    #0018
    Der Studiengang Physik (Bachelor) kann in Deutschland an 68 Standorten studiert werden. Wenn man nach allen Bachelor-Studiengängen im Zusammenhang nach Physik sucht, sind es sogar 242 Treffer in Deutschland.

    #0019
    Der erste Physiknobelpreis ging 1901 an Wilhelm Conrad Röntgen für die Entdeckung der X Strahlung (bzw im deutschsprachigen Raum nach ihm benannten Röntgenstrahlung).

    #0020
    Die Deutsche Physikalische Gesellschaft ist der älteste und größte Verein der ganzen Welt, welcher sich dem Fach Physik verschrieben hat. Er wurde am 14.01.1845 gegründet und hat circa 50`000 Mitglieder.

  • Hinaus in den Weltraum – Wie finden wir die Erde 2.0?

    Im letzten Post haben wir geklärt, wie wir einen Exoplaneten, also einen Planeten außerhalb unseres Sonnensystems, findet.
    Wie geht es danach aber weiter? Ein maßgeblicher Beweggrund, sich diese Planeten genauer anzuschauen und vor Allem nach erdähnlichen Planeten zu suchen ist, um die Bedingungen für organisches Leben und dessen Entwicklung sowohl dort als auch hier bei uns auf der Erde besser zu verstehen und neue Erkenntnisse zu erlangen. Man könnte sich an dieser Stelle vielleicht fragen, warum wir nicht auch versuchen Leben auf ganz anderer Basis zu finden, als wir es von der Erde kennen. Die Antwort liegt in gewisser Weise auf der Hand: Wir können nicht nach etwas suchen, was wir nicht kennen. Wir haben noch nichtmal alles rund um das Leben auf der Erde verstanden, sollten also die Suche auf das beschränken, was wir kennen und vergleichen können.

    Wir haben an diesem Punkt bereits Abschätzungen über den Radius und die Masse des Planeten und wissen so, ob es sich eher um einen Gesteinsplaneten oder zB um einen Gasriesen handelt. Außerdem kennen wir die Periode des Planeten und können so den Radius seiner Umlaufbahn berechnen. Jetzt sehen wir uns einen bekannten Begriff an: Die habitable Zone. Diese ist im weitesten Sinne der Bereich, in dem die Oberflächentemperatur des Planeten flüssiges Wasser ermöglicht. Diese können wir durch die Leuchtkraft des Sterns bestimmen. Wenn wir nun einen Gesteinsplaneten innerhalb dieser Zone finden, haben wir dann eine neue Erde gefunden? So einfach ist es leider nicht.

    Die Erde zB wird durch ein Magnetfeld vor Strahlung und Sonnenwinden geschützt. Dieses wird uA durch die metallischen Anteile des Erdkerns aufrechterhalten. Für eine zweite Erde auf der Leben blüht, wäre dies also sehr wichtig. Außerdem ist die Rotationsperiode des Planeten, sowie die Rotation um den zugehörigen Stern wichtig, quasi wie lange ein Tag bzw ein Jahr auf dem Planeten sind. Das hat massiven Einfluss auf die Ausbildung einer Atmosphäre, die wiederum entscheidend an der Entwicklung von Leben beteiligt ist. Generell ist das Klima auf einem Planeten ein komplexes Zusammenspiel verschiedener Vorgänge: Treibhauseffekt, Plattentektonik und Vulkanismus haben großen Einfluss auf die CO2 Konzentration. Auch wichtig ist die O2 Konzentration die zB durch Photosynthese reguliert wird. Ihr merkt schon, es gibt sehr viel zu beachten.

    Die nächste Hürde sich der Habitabilität eines Planeten zu nähern, ist die Frage, nach was für Lebensformen wir eigentlich suchen. Realistischerweise halten wir natürlich nicht nach kleinen grauen Männchen Ausschau, viel mehr suchen wir Mikroorganismen. Es hilft sich hier anzusehen, unter welchen Bedingungen Mikroorganismen auf der Erden wachsen und gedeihen können. Die Bandbreite der Parameter ist immens und deckt sich teilweise gar nicht unbedingt mit Überlegungen die wir zuvor angestellt haben: Irdische Mikroorganismen können bei über 100° Celsius und bei pH Werten von 1 bis 11 wachsen, sie haben eine sehr hohe Strahlungsresistenz und können ganz ohne Sauerstoff, ebenso wie in purem Sauerstoff gedeihen. Für höhere Lebensformen, wie wir sie kennen, unvorstellbar. Die richtigen Kriterien anzulegen ist extrem schwierig!

    Eine Methode um Planeten in ihrer Ähnlichkeit zur Erde zu sortieren und einzuordnen, ist der Earth Similarity Index (ESI). Er beschreibt mit einer Zahl zwischen 0 und 1 wie ähnlich ein Planet der Erde ist, wobei der Wert 1 der Erde gilt. Es werden verschiedene Eigenschaften wie Masse, Radius, Oberflächentemperatur, Umlaufzeit, Alter etc. … Des Planeten mit den dazugehörigen Werten der Erde verglichen, gewichtet und multipliziert. Der demnach erdähnlichste bekannte Planet wäre Teegarden’s Star b mit einem ESI von 0,97. Der uns nächste Exoplanet Proxima Centauri b hat einen ESI von etwa 0,86 und gehört damit ebenso in die Top Ten der Planeten mit dem höchsten ESI.

    Um den Rahmen nicht sprengen, endet der Beitrag hier. Falls ihr Interesse an einem weiteren Beitrag habt, in dem ich euch konkret etwas zu zB diesen Planeten oder bestimmten Forschungsmethoden/Ergebnissen berichte, lasst mich das gerne wissen! Wenn euch das Thema interessiert kann ich euch das Buch „Astrobiologie“ von Mathias Scholz sehr ans Herz legen. Ihr findet es mit etwas Glück digital in der (Uni)Bibliothek eures Vertrauens.

  • Hinaus in den Weltraum – Wie finde ich Exoplaneten?

    Heute nehme ich euch mit auf die Jagd, auf die Jagd nach fernen Planeten, fremden Welten und in die endlosen Weiten des Universums!

    Exoplaneten sind Planeten außerhalb unseres Sonnensystems und geben uns einen einzigartigen Einblick auf fremde Sonnensysteme. Gleichzeitig erhofft sich die Forschung dadurch ein besseres Verständnis unseres eigenen Sonnensystems und seiner Planeten. Natürlich ist der ‚heilige Gral‘ der Gedanke, eine zweite Erde zu finden, vielleicht sogar inklusive Leben. Speziell zu diesem Thema möchte ich einen eigenen Beitrag schreiben, den ihr nächste Woche hier lesen könnt, sobald er fertig gestellt ist.

    Aber ich möchte nochmal einen Schritt zurück gehen. Um Exoplaneten zu untersuchen und Astrobiologie zu betreiben, müssen wir diese weit entfernten, in kosmischen Dimensionen winzigen Objekte erstmal finden. Das direkte Auffinden per Teleskop, auch Direct Imaging genannt, ist extrem mühselig und schwer. Zwar eröffnen uns neue Teleskope wie das JWST bessere Möglichkeiten, wirklich ergiebig wird diese Methode aber ich in nächster Zeit vermutlich nicht. Dazu sind die Entfernungen zu groß und die Planeten zu klein. Außerdem sind die im Gegensatz zu den Sternen die sie umkreisen dunkel und strahlen nicht. Es gibt also viele gute Gründe, den Stern zu untersuchen, der das Zentrum des vermuteten Sonnensystem bildet. Hier gibt es einige Methoden, die ich euch heute vorstellen möchte.

    Bei Weitem die meisten Exoplaneten werden mithilfe der Transit-Methode gefunden. Dazu wird die Helligkeit eines Sterns über längere Zeit beobachtet. Bewegt sich ein Planet auf seiner Umlaufbahn von uns aus gesehen vor dem Stern, sprechen wir von einem Transit. Der dunkle Planet verdeckt somit einen kleinen Teil des Lichts, welches wir von dem Stern registrieren können. Da der Planet sich immer wieder auf der gleichen Umlaufbahn entlang bewegt, werden wir also eine periodisch wiederkehrende Minderung der Helligkeit des Sterns registrieren. Für einen Planeten in der Größenordnung der Erde wird typischerweise eine Minderung von ~  0,37 – 1 % beobachtet.
    Generell gilt, dass Planeten die so entdeckt werden im Vergleich zur Erde eine eher geringe Umlaufzeit um ihren Stern aufweisen. Das liegt daran, dass man den Transit ja durchaus ein paar mal registrieren muss, um sicher zu gehen, dass es sich tatsächlich um einen Exoplaneten handelt. Hat dieser nun eine Umlaufzeit von vielen Jahren, wäre das kaum machbar bzw dauert dies extrem lange. Dauert der Umlauf nur einige Tage oder Wochen, kann man diesen gut einige Male beobachten.

    Transit-Methode (Quelle)

    Eine zweite sehr häufig verwendete Methode ist, zu beobachten wie die Radikalgeschwindigkeit das Licht des Sterns ändert. Gemäß Newtons Axiom Nr. 3 üben Stern und Planet die gleiche Kraft aufeinander aus. Den kleinen Planeten hält diese Kraft im Orbit. Den großen, schweren Stern bringt sie allerdings auch in Bewegung, nur eben viel weniger. Alle Sterne, auch unsere Sonne, werden durch ihre Planeten ebenfalls auf eine sehr kleine Bahn gebracht. Meist ist diese so klein, dass der Stern gerademal ein wenig „wackelt“. Liegt die Ebene, auf der der Stern und seine Planeten sich bewegen, parallel zu unserem Sonnensystem, dann gibt es einen Moment bei dem der Stern sich von uns aus gesehen weg bewegt und einen Moment, wenn er sich zu uns hin bewegt. Und vielleicht wissen ein paar von euch schon, welcher bekannte Effekt hier eine Rolle spielt …
    Wir haben eine Quelle die Licht ausstrahlt und sich jeweils von uns weg oder zu uns hin bewegt. Dadurch ändert sich die Wellenlänge des Lichts, welches uns erreicht. Das ist der berühmte Dopplereffekt, den ihr zB auch bei Schallwellen hört, wenn ein Krankenwagen auf euch zu und dann an euch vorbei und weg von euch fährt. Im Falle von Licht gilt: Bewegt sich die Quelle von uns weg, wird die Wellenlänge größer bzw rotverschoben. Bewegt sie sich auf uns zu, wird die Wellenlänge kleiner bzw blauverschoben. Wenn wir einen Stern, von dem wir vermuten er hat einige Exoplaneten, eine Zeit lang beobachten, werden wir also einen periodischen Wechsel von Rot- und Blauverschiebung im Spektrum des Sternenlichts messen. Darüber können wir die Radikalgeschwindigkeit des Sterns berechnen. Zusammen mit der Masse des Sterns gibt uns das Aufschluss darüber, wie groß die Masse des Planeten bzw der Planeten sein muss, die den Stern bewegen. Hier beobachten wir, dass die meisten Planeten die mit dieser Methode gefunden werden wesentlich größer sind, als die Erde. Besonders gut funktioniert die Methode, wenn der zugehörige Stern eher klein ist. Das ist auch logisch: Ein eher großer Planet bringt seinen (kleinen) Stern mehr zum wackeln, als ein kleiner Planet. Die Genauigkeit der Geschwindigkeitsmessung liegt hier bei nur wenigen Meter pro Sekunde!

    Radial Velocity Methode (Quelle)

    Mit diesen zwei Methoden werden die allermeisten Exoplaneten gefunden. Einige Planeten werde außerdem durch Gravitational Microlensing gefunden. Dabei werden Effekte der Allgemeinen Relativitätstheorie genutzt. Ein großer, massereicher Stern übt viel Gravitation auf die Raumzeit aus. Dadurch wird das Licht von den Sternen, die von uns aus gesehen hinter diesem Stern liegen, abgelenkt und der vordere Stern wirkt wie eine Art Linse, weshalb die Methode Microlensing genannt wird. Die Masse von Planeten, gerade der großen Planeten verstärkt diesen Effekt, was sich anhand der bekannten Sternmasse und der Ablenkung des Lichts ergibt. Umkreist ein Planet statt einem Stern einen Pulsar [lest gerne hier nach, um was es sich dabei handelt und hier die spannende Geschichte ihrer Entdeckerin, Jocelyn Bell Burnell], dann wackelt auch er ähnlich wie der Radialgeschwindigkeits-Methode um den gemeinsamen Schwerpunkt des Systems. Hierdurch ändert sich das Timing, mit dem wir die periodischen Signale des Pulsars registrieren. Obwohl nicht viele Planeten so gefunden werden, wurde mit dieser Methode tatsächlich 1992 die ersten Exoplaneten gefunden. Sie tragen die passenden Namen:
    – Draugr, benannt nach Sagengestalten aus der nordischen Mythologie, welche Wiedergängern ähneln.
    – Poltergeist, benannt nach dem allseits beliebten Spukphänomen
    – Phobetor, benannt nach Einem der drei griechischen Traumdämonen

    Zum Schluss ist hier noch eine Grafik, in der die bereits gefundenen Exoplaneten nach Masse, Umlaufzeit und Detektionsmethode sortiert sind:

    Exoplanet Census, NASA. Diese Abbildung habe ich letztes Jahr in einem Vortrag verwendet, allerdings ist diese Grafik jetzt nicht mehr länger online abrufbar, daher kein Link.

    Ich hoffe wie immer der Beitrag hat euch gefallen und ich konnte euch mitnehmen in die Welt der Exoplaneten, in der wir auch nächste Woche noch etwas verweilen werden.
    Wie immer freue ich mich über Likes, ein Abonnement oder auch Kommentare. Schreibt mir doch gerne, welche der vorgestellten Methoden ihr am spannendsten findet! Vielen Dank für euren Support ❤

  • Wie messe ich Zeptosekunden?

    Willkommen zurück, heute präsentiere ich euch ein konkretes Experiment aus der Physik, mit welchem ich mich in letzter Zeit beschäftigt habe. Alle relevanten Infos und Abbildungen stammen aus diesem Paper von Grundmann et al.

    Das Ziel ist, auf dem Level von Zeptosekunden, also 10^(-21) Sekunden zu messen, wie lange ein Photon braucht, um sich innerhalb eines Moleküls zu bewegen. Wenn ihr euch unter Zeptosekunden nicht so viel vorstellen könnt, findet ihr hier meinen letzten Beitrag, in dem wir uns mit den Basics der Skalen in der Wissenschaft beschäftigen.

    Die genaue Idee ist wie folgt:
    Ein Wasserstoffmolekül H2 besteht aus zwei Wasserstoffatomen, mit einem durchschnittlichen Abstand von 0,74 Ångström, also 0,74 x 10^(-10) m. Ein Wasserstoffatom wiederum ist das einfachste Element und besitzt neben einem Proton im Kern noch ein Elektron in der Hülle. Wir wollen nun mit einem Photon beide Atome ionisieren, also beide Elektronen aus dem jeweiligen Atom herauslösen. Von diesen beiden Elektronen gehen dann zwei Photo-Elektronen Wellen aus, deren Überlagerung wir in Form von Interferenz messen können. Diese Interferenz ist der Schlüssel zu unserer Zeptosekunden-Stoppuhr. Denn wenn zuerst das eine Atom ionisiert wird und dann das andere, dann hat eine der Photo-Elektronen Welle eine Verzögerung, das sogenannte Birth Time Delay. Da sich Photonen mit Lichtgeschwindigkeit ausbreitet und bei genau paralleler Ausrichtung von Molekül zum einfallenden Licht eine Strecke von etwa 0,74 Å zurücklegt, lässt sich einfach abschätzen, dass dieser Delay etwa 247 Zeptosekunden betragen sollte. Wie groß dieser Delay tatsächlich ist, lässt sich über das Interferenzmuster messen. Dieses verschiebt sich, wenn eine der beiden Photo-Elektronen Wellen zeitlichen Delay aufweist. Hier findet ihr ein Schema des Konzepts:

    Das Intensitätsmaximum des Interferenzmusters verschiebt sich durch den Birthtime Delay nach vorne. Quelle: Grundmann et al. (Siehe oben)

    Gemessen wird das ganze mit einem COLTRIMS Aufbau, den ich euch bei anderer Gelegenheit genauer erklären werde. Kurzgefasst können wir darüber die Energie und den Impuls aller beteiligten Partikel messen. Die Ergebnisse kann man so nach dem Winkel zwischen Molekül und Licht auftragen. Wie erwartet, ist der Shift des Interfenzmusters am Größten, wenn der Weg zwischen den beiden Atomen maximal ist, den das Licht zurücklegen muss. Der Verlauf ist linear und deckt sich gut mit den Erwartungen, allerdings müssen zusätzliche Effekte und Näherungen miteinbezogen werden, um die Ergebnisse zu verfeinern.

    Die Ergebnisse findet ihr hier aufgetragen:

    Das Maximum wird linear in Abhängigkeit des Molekül-Winkels verschoben, das Muster wirkt dadurch schräg. Quelle: Grundmann et al. (Siehe oben)

    Es ist also tatsächlich möglich Vorgänge zu messen, die im Zeptosekundenbereich liegen!
    Mich hat dieses Experiment sehr fasziniert und ich hoffe ich konnte es euch etwas näher bringen. Lasst mich gerne wissen, ob der Beitrag gut verständlich ist und ob ihr das Thema interessant findet 🙂

Erstelle eine Website wie diese mit WordPress.com
Jetzt starten