Two-Face’s one sided die

Eindeutiger Zufall

Im Film The Dark Knight trägt Harvey Dent eine Münze auf sich, die auf beiden Seiten das gleiche Symbol hat. Er wirft diese im Film mehrmals und lässt so „den Zufall“ entscheiden, was er als nächstes tun soll. Ich wollte mir ganz im Stile Harvey Dents ebenfalls eine Art Würfel bauen, der stets auf die gleiche Seite fällt. Dies ist tatsächlich möglich, und zwar in Form einer Möbiusschleife.

Eine Möbiusschleife lässt sich ganz einfach aus einem langen Streifen Papier herstellen: Man verdreht einfach das eine Ende des Streifens um 180° und fügt dann die beiden Enden zusammen. Es lässt sich einfach nachprüfen (etwa indem man mit einem Finger der Oberfläche entlangfährt), dass die entstandene Schleife nur eine Seite hat. Damit die Möbiusschleife aber tatsächlich wie ein Würfel geworfen werden kann, muss sie natürlich aus stabilem Material gebaut werden. Dazu bietet sich der 3D-Druck an.

3D-Druck: Vom Modell zum Objekt

Ich habe die Gratis-Software Blender benutzt, um ein 3D-Modell einer Möbiusschleife zu erstellen. Dabei bin ich im Wesentlichen den folgenden Ausführungen gefolgt: Blender-Forum. Ich habe zuvor noch kaum mit Blender gearbeitet und deshalb dauerte es eine Weile, bis ich tatsächliche die Schleife hingekriegt habe. Um der 2D-Schleife etwas Dicke zu verleihen, kann der Blender Modifier Solidify verwendet werden. Schliesslich habe ich noch mit Blenders Knife Project eine 1 in die Schleife gestanzt. Das entstandene 3D-Modell ist hier zu sehen:

 

 

 

IMG_3156
Prusa i3 des ETH Makerspace

Den 3D-Druck dieses Modells habe ich schliesslich im Makerspace an der ETH angefertigt. Dort gibt es mehrere Prusa i3 3D-Drucker, welche die Studierenden praktisch gratis verwenden dürfen (bloss die Materialkosten müssen selbst bezahlt werden, und die belaufen sich für ein Objekt der Grösse der Möbius-Schleife auf ca. 50 Rappen). Die Bedienung des Prusa i3 ist sehr benutzerfreundlich, es gibt eine intuitive Software, die aus dem 3D-Modell (als .stl-Datei) den Maschinencode für den Drucker generiert. Dabei berechnet die Software automatisch, wo Stützstrukturen nötig sind, um auch überhängende Stellen drucken zu können. Diese Stützstrukturen (im Beitragsbild oben noch sichtbar) können später leicht vom eigentlichen gedruckten Objekt abgebrochen werden. Der generierte Maschinencode kann via SD-Karte zum Drucker gebracht und ausgeführt werden. Der Druck dauert meist mehrere Stunden, die Dauer ist natürlich abhängig von der Grösse des Objekts und der eingestellten Qualität des Drucks (Anzahl Schichten pro Längeneinheit). Ich durfte den Druck zum Glück am Abend starten und dann am nächsten Tag fertig abholen, so hatte ich kaum zeitlichen Aufwand (vielen Dank an den Makerspace!). Mit einem Japanmesser habe ich schliesslich die Stützstrukturen von der Schleife abgelöst, fertig war der einseitige Würfel!

Bleiben die abschliessenden Fragen, ob sich der ganze Aufwand gelohnt hat und ob der Hype um den 3D-Druck tatsächlich berechtigt ist. Ich glaube das könnte leicht mit einem Würfelwurf beantwortet werden.

IMG_3179asdf

Quellen

Einführung in den 3D-Druck: ETH Makerspace

Femtolaser-Sicht

Ziele niemals mit Laserlicht auf Augen, deine Sicht könnte irreparabel beeinträchtigt werden! Es sei denn du stellst ein Team aus Ingenieuren, Informatikern, Physikern, Medizinern und anderen Expertinnen und Experten zusammen und baust eines der besten Lasergeräte für refraktive Augenchirurgie und Katarakt-Operationen auf dem weltweiten Markt. Dann tue genau das.

Ziemer Ophthalmic Systems AG

Die Schweizer Firma Ziemer Ophthalmic Systems wurde 1998 gegründet und ist in Port nahe Biel anzutreffen. Ursprünglich bestand sie aus zwei Personen, mittlerweile sind es Hunderte. Die Ziemer AG stellt Augenlasersysteme her, welche Ärztinnen und Ärzte bei der Diagnose und Korrektur von Fehlsichtigkeiten und Augenkrankheiten unterstützen. Während fünf Wochen darf ich dort ein Praktikum machen und die Firma besser kennen lernen.

Femto LDV Z8

Das aktuelle Aushängeschild der Firma ist das System Femto LDV Z8. Es handelt sich dabei um einen sogenannten Femtosekundenlaser. Eine Femtosekunde entspricht 0.000000000000001 Sekunden,

Um eine Vorstellung von der Grössenordung zu bekommen: Während Licht für die Distanz von der Erde zum Mond eine Zeit in der Grössenordnung von einer Sekunde benötigt, legt es in einer Femtosekunde gerade einmal eine Distanz in der Grössenordnung von der Dicke eines menschlichen Haares zurück.
Femtolaser werden ihrem Namen gerecht, da ihre Laserpulse nur gerade eine Femtosekunde lang andauern. Das bringt entscheidende Vorteile in der Anwendung, auf die ich später zurückkommen werde.

Femto LDV Z8
Femto LDV Z8

Der Femto LDV Z8 kann unter anderen in sogenannten LASIK- und Katarakt-Operationen eingesetzt werden. Bei der LASIK-Operation geht es darum, die Form der Hornhaut zu verändern, um Fehlsichtigkeiten zu korrigieren. Tatsächlich macht nämlich die Brechung des Lichts durch die Hornhaut den grössten Teil der Refraktionsstärke des Auges aus, die Linse sorgt dann nur noch für das anpassungsfähige „Fine-Tuning“. Bei der LASIK-Operation wird mit dem Femto LDV Z8 ein sogenannter „Flap“ gelasert, eine dünne Lamelle in den oberen Schichten der Hornhaut, die weggeklappt werden kann (der „Flap“ ist an einer Stelle immer noch fest mit dem Auge verbunden). Mit einem anderen Laser, einem sogenannten Excimer-Laser, kann dann Gewebe in den tiefer liegenden Schichten der Hornhaut abgetragen werden. Je nachdem ob der Patient kurz- oder weitsichtig ist, wird Gewebe in der Mitte oder aussen am Auge abgetragen, um die Hornhaut flacher oder stärker gekrümmt zu machen. Dann wird der Flap wieder zurückgeklappt und das Auge ist gewöhnlich nach kurzer Zeit und ganz ohne Schmerzen wieder vollständig verheilt, da die äusseren Schichten der Hornhaut intakt gelassen werden. Die Katarakt-Operation (auch „Grauer Star“) ist etwas aufwändiger. Mit dem Femtolaser wird erst ein Loch in die Linsenkapsel gelasert. Dann wird die getrübte Linse mit dem Laser in mehrere Stücke geteilt, um das anschliessende Herausnehmen zu erleichtern. Schliesslich fertigt der Laser noch mehrere Kanäle ins Innere des Auges an, welche der Chirurgin oder dem Chirurgen Zugang zur zerschnittenen Linse gewähren. Anschliessend wird die alte Linse aus dem Auge gesaugt und durch eine Kunstlinse ersetzt. Ich habe am Ende dieses Beitrages Videos verlinkt, welche die Operationen modellhaft veranschaulichen. Für Unerschrockene gibt es zudem Videos von echten Operationen, man bekommt durch sie eine völlig neue Sicht auf’s Auge (pun intended).

Hohe Leistung, niedrige Energie

Wie man sich nun vorstellen kann, soll der Femtolaser sehr präzise und nur ganz lokal Gewebe abtragen. Indem man die Dauer eines Laserpulses so kurz hält, kann die Energie eines Laserpulses niedrig gehalten werden und man erreicht dennoch sehr hohe Leistungen (da Leistung = Energie pro Zeit). Eine hohe Leistung konzentriert auf einen sehr kleinen Bereich wird benötigt, um im Gewebe ein Plasma zu bilden (stark vereinfacht gesagt ist ein Plasma wie ein vierter Aggregatszustand, ein Gas mit ionisierten Atomen und freien Elektronen¹). Das zusammenhängende Gewebe wird lokal aufgelöst. Die durch die Plasmabildung entstehende Schockwelle und die in der Folge entstehende Kavitation („Bildung und Auflösung von dampfgefüllten Hohlräumen in Flüssigkeiten“²) tragen zudem zur Auflösung des Gewebes bei. Da das Licht des Augenlasers im für die Netzhaut nicht wahrnehmbaren Bereich der Infrarotstrahlung liegt, werden die Sehnerven durch den Augenlaser nicht beeinträchtigt. Zudem können die Laserpulse während der Operation von der Patientin oder dem Patienten nicht wahrgenommen werden.
Nun zurück zur Frage, warum die kurz gehaltenen Femtosekundenpulse einen entscheidenden Vorteil bringen: Die Energie der Laserpulse muss niedrig gehalten werden, da mit zunehmender Energie die ungewollten sekundären Effekte zunehmen, so etwa die Erwärmung des Gewebes. Der Effekt des Pulses verliert dadurch die gewollte Lokalität. Um dennoch bei niedriger Pulsenergie auf die erforderliche Leistung für die Plasmabildung zu kommen, muss die Dauer des Pulses gesenkt werden. Der Femtolaser ward geboren.

Animationen der Operationen

   

Aufnahmen der Operationen (graphic content)
   

Quellen

Ziemer Ophthalmic Systems AG: ziemergroup.com

¹Wikipedia: Plasma (Physik)

²Wikipedia: Kavitation

Beitragsbild: vision.beye.com

Bild Femto LDV Z8: rocol.com.co

Infinite-Monkey Rap

Im Jahr 2013 habe ich einen Beitrag zum Infinite-Monkey-Theorem verfasst. Kurz zusammengefasst geht es darum, dass ein Affe in unendlicher Zeit einen beliebigen Text verfassen könnte, indem er zufällig auf den Tasten einer Schreibmaschine herumtippt. Das Infinite-Monkey-Theorem wird im Musikvideo zum Song „Walk on Water“ des US-amerikanischen Rappers Eminem dargestellt. Eminem selbst findet sich in der Rolle des tippenden Affen wieder und verfasst schlussendlich seinen weltberühmten Song „Stan“. Das Ganze passt perfekt zur Thematik von „Walk on Water“: Eminem spricht die extrem hohen Erwartungen an, die heutzutage an seine Texte gestellt werden. Er fühlt sich wie der tippende Affe, da er seinem anspruchsvollen Publikum nur noch gerecht werden kann, wenn er monatelang an seinen Texten arbeitet. Dass es dem tippenden Eminem aber gelingt, den Song „Stan“ zu verfassen (die Wahrscheinlichkeit dafür ist vernachlässigbar klein, siehe meinen Beitrag von 2013), gibt Eminems Stolz/Arroganz Ausdruck, doch etwas Aussergewöhnliches zu sein. Die Thematik des Infinite-Monkey-Theorems wurde meiner Meinung nach sehr raffiniert umgesetzt. Das Video ist hier verlinkt:

 

Condensed Matter Report

Im Rahmen des Kurses „Condensed Matter Physics“ an der University of Toronto habe ich einen Report zum Thema „Higgs Modes in Superconductors“ verfasst. Es ging darum, sich mithilfe von wissenschaftlichen Papers in ein Thema einzulesen, über das man vor dieser Arbeit noch nichts wusste. Das Thema ist sehr komplex und geht über den Stoff hinaus, den man gewöhnlich im Bachelor Physik durchnimmt. Entsprechend habe ich lange gebraucht, um einigermassen den Überblick über all die verschiedenen Fachbegriffe zu bekommen. Ich habe versucht alles so klar wie möglich darzustellen, der Report dürfte aber für Nicht-Physikstudierende schwierig zu verstehen sein.

Higgs Modes in Superconductors

 

 

Elektronenmikroskopie

Elektronenmikroskopie

Im Kurs „Advanced Physics Laboratory“ an der University of Toronto hatte ich die Möglichkeit mit einem Elektronenmikroskop zu arbeiten. Die grundlegende Idee hinter der Elektronenmikroskopie stammt aus der Quantenmechanik: Teilchen (wie etwa Elektronen) können sich wie Wellen verhalten. Eine wichtige Eigenschaft von Wellen ist die Wellenlänge (Distanz, welche die Welle von einem Wellenberg zum nächsten zurücklegt). Der Physiker de Broglie fand 1924 den Zusammenhang zwischen der Wellenlänge λ und dem Impuls p (Masse mal Geschwindigkeit) von Teilchen:

Dabei ist h eine Naturkonstante (Planck’sches Wirkungsquantum):

Der Wert von h liefert auch gleich die Erklärung, warum man für lange Zeit die Welleneigenschaft von Teilchen nicht bemerkt hat: da h im Vergleich zu Alltagsgrössen sehr klein ist, ist auch die resultierende Wellenlänge λ der Materiewelle meist sehr klein. Da der Wellencharakter erst dann zum Vorschein kommt, wenn die Welle auf eine Struktur in der Grössenordnung der eigenen Wellenlänge trifft, kann man die Welleneigenschaft von Teilchen in alltäglichen Dimensionen nicht beobachten. Elektronenwellen eignen sich aber hervorragend, um das Atomgitter in Metallen wie Silber, Aluminium oder Gold zu untersuchen (da die Abstände zwischen den Atomen in diesen Metallen in der Grössenordnung der Wellenlänge λ der Elektronenwellen sind). Aus diesem Grund wird die Elektronenmikroskopie in der Festkörperphysik oft verwendet.

Die Schwierigkeiten der Elektronenmikroskopie sind einerseits, dass die Luft im Innern des Mikroskops herausgepumpt werden muss (man braucht ein sehr gutes Vakuum, da sonst die Elektronen von den Luftteilchen gebremst oder gestreut werden) und andererseits, dass die Elektronen mit Hochspannung beschleunigt werden müssen, damit λ tatsächlich in der gewünschten Grössenordnung liegt (indem man den Impuls p der Elektronen erhöht, verkleinert man deren Wellenlänge λ). Beim Elektronenmikroskop an der University of Toronto wurde das Vakuum mit einer Kombination aus mechanischen Pumpen und sogenannten Diffusionspumpen erreicht (der Startprozess des Elektronenmikroskops dauerte ungefähr eine Stunde).

Die Herausforderung bei diesem Experiment für mich speziell war, dass mir niemand von den Betreuern des „Advanced Physics Laboratories“ über die genaue Funktionsweise des Elektronenmikroskops Auskunft geben konnte, da einer der technischen Mitarbeiter im vergangenen Sommer tragischerweise verstorben ist und dadurch sehr viel des Wissens über dieses Mikroskop verloren ging. Deshalb verbrachte ich ungefähr die Hälfte meiner Laborzeit mit dem Ausprobieren der verschiedenen Bauteile und Knöpfe, was mir aber ziemlich viel Spass bereitete. Ich beging dabei wohl ziemlich dumme Anfängerfehler (so verbrannte ich beispielsweise den Draht der Elektronenkanone, da ich den Strom zu hoch aufdrehte), diese waren aber zum Glück alle reparierbar und ich kam umhin sie zu wiederholen.

IMG_2528

Der „Fingerabdruck“ von Atomgittern

Im einfachsten Fall ordnen sich Atome in einem Material in einem kubischen Gitter an. Dabei gibt es die Gitter simple cubic (sc), body-centered cubic (bcc) und face-centered cubic (fcc):

crystal-structures

Die Atomgitter der Materialien Silber, Aluminium und Gold sind alle face-centered cubic. Die Art des Gitters kann mittels der Elektronenmikroskopie bestimmt werden: Je nachdem um welche Gitterart es sich bei einem Material handelt, werden die einkommenden Elektronenwellen unter anderen Winkeln gestreut. Die grundlegende Idee ist einfach: Damit sich die von den unterschiedlichen Schichten des Atomgitters gestreuten Elektronenwellen nicht gegenseitig auslöschen, müssen immer ein Wellenberg auf einen Wellenberg und ein Wellental auf ein Wellental zu liegen kommen (man nennt das positive Interferenz). Also muss der Unterschied im zurückgelegten Weg zwischen der Welle, die von einer Gitterschicht gestreut wurde zur Welle, die von der nächsten Gitterschicht gestreut wurde, gerade ein Vielfaches der Wellenlänge λ betragen:

wobei n eine positive ganze Zahl (0, 1, 2, …) ist.

400px-BraggPlaneDiffraction.svg

Mit obiger Skizze kann man sehen, dass die Formel

gilt, wobei d der Abstand zwischen den Schichten im Atomgitter und θ der Einfallswinkel der Elektronenwellen ist. Das Kombinieren dieser beiden Formeln führt zu

der berühmten Formel der Bragg Streuung. Wie man sich anhand obiger Skizzen überlegen kann, weisen die unterschiedlichen Atomgitter (sc, bcc und fcc) unterschiedliche Abstände d zwischen den verschiedenen Atomschichten auf, deshalb erwartet man auch andere Winkel θ bei der Streuung der Elektronenwellen an den verschiedenen Atomgittern (da d je nach Gitter unterschiedlich ist, λ jedoch für alle Gittertypen gleich bleibt, da eine Eigenschaft der Elektronenwellen). Mittels der Theorie der Fouriertransformation kann man die zu erwartenden Streuwinkel noch präziser und eleganter herleiten, die Grundidee bleibt aber die gleiche.

Resultate

Die unten stehenden Bilder zeigen die aufgenommenen Streubilder (für Aluminium und Silber). Je grösser der Streuwinkel θ, desto grösser ist der Radius der entsprechenden Streulinie (jeder Kreis entspricht also einem Abstand d zwischen Schichten im Atomgitter via der Bragg Streuformel). Die weissen Linien zeigen das von mir berechnete theoretische Streumuster für ein fcc Gitter. Die theoretischen Linien stimmen sehr gut mit den gemessenen überein (gegen aussen werden die Linien schwächer, deshalb kann die 4. und 5. Linie von innen gezählt nur noch als eine Linie wahrgenommen werden). Die Übereinstimmung von Theorie und Experiment zeigt, dass sich die Atome in den Materialien Aluminium und Silber tatsächlich in einem fcc Gitter anordnen.

aluminum1_solution

silver3_solution

 

Quellen

Planck’sches Wirkungsquantum: de.wikipedia.org
Kubische Kristallgitter: bigkingken.files.wordpress.com
Bragg Streuung: upload.wikimedia.org

Schneller als Licht?

Ein Beispiel aus dem Alltag

Am Flughafen Zürich gibt es Laufbänder, die es Reisenden erlauben, schnell das Gate zu wechseln. Wenn man auf einem solchen Laufband geht, so scheinen sich die Geschwindigkeit des Laufbandes und die eigene Gehgeschwindigkeit zu addieren: wir kommen schneller voran.  Drückt man dies in Formeln aus, so erhält man die Beziehung:

Ein Beobachter, der neben dem Laufband steht, wird also die Geschwindigkeit der eilenden Reisenden als Summe der Geh- und der Laufbahngeschwindigkeit sehen.

Ein Beispiel aus dem intergalaktischen Alltag

Was passiert nun, wenn wir die Geschwindigkeiten erhöhen? Man stelle sich als Beispiel eine Person in einem Raumschiff vor, das sich mit einer Geschwindigkeit v (gegenüber einer ruhenden Beobachterin auf einem Planeten) bewegt. Die Person in der Rakete richtet nun den Strahl eines Laserpointers auf einen kleinen Kometen, der sich direkt vor der Rakete befindet (damit das Beispiel etwas weniger konstruiert wirkt: die Absicht der Person ist natürlich mit der Energie des Laserlichtes den Schriftzug „Anarchie“ auf der eisigen Oberfläche des Kometen zu verewigen, ein politisches Statement gegen die strikte Herrschaft des intergalaktischen Senats).

rakete

Wie sieht es aber nun mit der Geschwindigkeit aus, welche die ruhende Beobachterin auf dem Planeten wahrnimmt? Das Laserlicht bewegt sich von der Person in der Rakete aus gesehen mit der Lichtgeschwindigkeit c fort. Und die Person in der Rakete reist wiederum mit der Geschwindigkeit v gegenüber der ruhenden Beobachterin. Würden sich die Geschwindigkeiten v und c einfach addieren, so müsste die Geschwindigkeit des Laserstrahls für die Beobachterin auf dem Planeten grösser sein als die Lichtgeschwindigkeit. Ist das möglich?

Relativitätstheorie

Mit seiner (speziellen) Relativitätstheorie lieferte Albert Einstein die Antwort: die blosse Addition von Geschwindigkeiten ist falsch. Einstein ging davon aus, dass die Lichtgeschwindigkeit für alle Beobachter die gleiche sein muss. Führt man diese Idee konsequent mathematisch aus, so ergibt sich, dass für parallele Geschwindigkeiten die folgende Formel gelten muss:

Im obigen Beispiel mit dem Laserpointer und der Rakete ist

Die Geschwindigkeit des Laserlichtes, welche die Beobachterin auf dem ruhenden Planeten wahrnimmt, beträgt also

Das bedeutet, dass die Lichtgeschwindigkeit für die Person in der Rakete wie für die Beobachterin auf dem Planeten die genau gleiche ist (genau dies war ja auch Einsteins Grundannahme, deshalb sollte sie natürlich von den darauf aufbauenden Formeln auch bestätigt werden). Die Formel erklärt auch, weshalb wir im Alltag die blosse Addition der Geschwindigkeiten wahrnehmen: falls die betreffenden Geschwindigkeiten sehr viel kleiner als die Lichtgeschwindigkeit sind (ich denke das ist sowohl für die Geh- wie auch für die Laufbandgeschwindigkeit am Züricher Flughafen gegeben), so gilt

Unsere Geschwindigkeiten im Alltag sind also im Vergleich zur Lichtgeschwindigkeit so lächerlich klein, dass relativistische Effekte keine Rolle spielen. Ganz nach dem Motto: „Wenn die Relativitätstheorie in Ihrem Leben keine Rolle spielt, dann sind Sie zu langsam.“

Quellen

Vorlesung Physik II, ETH Zürich
Beitragsbild: space.com

 

Und sie drehen sich

Simulation der Umlaufbahnen

Wie genau bewegen sich die Planeten? Wie sehen ihre Umlaufbahnen aus? Wann werden sie sich wo befinden? Die besten Köpfe der Wissenschaft haben sich früher mit diesen Fragen beschäftigt und dabei bahnbrechende Entdeckungen gemacht. Heute kann sich jeder mit einigen Kenntnissen der Programmiersprache Python und der Numerischen Methoden eine eigene Simulation des Sonnensystems programmieren. Ich habe genau dies getan. Dabei ist das folgende Video entstanden:

Die Zeit läuft im Video etwa 400’000’000 mal schneller als in Wirklichkeit. Die Distanzen sind in Astronomischen Einheiten AU (mittlere Distanz der Erde zur Sonne) angegeben. Die terrestrischen Planeten (Merkur bis Mars) habe ich weggelassen, da sie bei massstabsgetreuer Darstellung der Umlaufbahnen nur noch als Durcheinander im Zentrum erkennbar wären.

Vergleich mit offiziellen Modellen

Vergleicht man meine Simulation mit offiziellen Modellen der NASA, so scheinen die Umlaufbahnen ziemlich genau zu stimmen (den Zwergplaneten Eris habe ich weggelassen). Meine Bahnen fallen etwas elliptischer aus, was an den ungleichen Skalierungen der Achsen liegt.

Umlaufbahnen

Simulation

In der Folge gebe ich einen kurzen Überblick, wie die Simulation aufgebaut ist. Im Kern befinden sich zwei Differentialgleichungen, die sogenannten Hamiltonschen Bewegungsgleichungen. Diese sehen folgendermassen aus:

wobei die Hamilton-Funktion (Gesamtenergie des Systems) in diesem Fall definiert ist als:

Mit q wird hier der Ort der Planeten bezeichnet, p steht für den Impuls und m für die Masse. Zweifellos sehen diese Funktion und umso mehr die Differentialgleichungen ziemlich grimmig aus, dafür erhalten sie alle Informationen, die man für die Simulation eines beliebigen Planetensystems braucht. Kann man die Differentialgleichungen lösen und sind die Anfangsbedingungen bekannt (Ort und Geschwindigkeit der Planeten zum jetzigen Zeitpunkt), so kann man die Bewegungen und Aufenthaltsorte der Planeten unter gegenseitigem Einfluss (!) für alle Zeiten bestimmen. In der Praxis approximiert man solche Differentialgleichungen mit einem Computer unter Verwendung von numerischen Verfahren. Ich habe das sogenannte Velocity-Verlet-Verfahren angewendet. Dabei wird die Zeit vom Anfangs- bis zum Endzeitpunkt in ein feines Zeitgitter aufgeteilt. Der Computer berechnet dann nacheinander den Ort und die Geschwindigkeit der Planeten für die Zeiten in diesem Gitter, immer basierend auf den zuletzt berechneten Werten. Diese Annäherung wird beliebig genau für ein beliebig feines Zeitgitter (der Fehler ist proportional zur Länge der Zeitschritte im Gitter – zum Quadrat). Die berechneten Werte habe ich in etwa 200 Diagrammen geplottet und anschliessend in einer Videosoftware zum oben gezeigten Video verarbeitet.

Das Schöne an der Simulation ist, dass sie nur die Anfangswerte der Planeten benötigt, alles andere wird aus den Hamilton-Gleichungen berechnet. Somit könnte man ihr ohne Mühe die Anfangswerte für extraterrestrische Planeten füttern und so auch ein beliebig anderes Planetensystem modellieren.

Quellen

Vorlesung Numerische Methoden, ETH Zürich

Bild Planetenumlaufbahnen: NASA

Beitragsbild: scilogs.de

Die Karten werden neu gemischt

Nichts Neues

„Es gibt nichts Neues mehr. Alles, was man erfinden kann, ist schon erfunden.“ Dieses Zitat stammt von Charles H. Duell, leitender Angestellter des US-Patentamtes. Bemerkenswert ist aber nicht etwa die Aussage selber, sondern ihre Datierung – das Zitat stammt aus dem Jahre 1899. Die grosse Anzahl an neuen Erfindungen, die ihren Weg in unsere Gesellschaft gefunden haben, widerlegt eindeutig Duells Aussage. Aber wie sieht es heute aus? Ist es noch möglich etwas zu erschaffen, das die Welt noch nie gesehen hat?

Die Karten werden neu gemischt

Ich bezweifle nicht, dass geistreichere oder überraschendere Werke möglich sind, aber tatsächlich genügt bereits ein gewöhnliches Set bestehend aus 36 Jasskarten, um Neues zu erschaffen. Alles, was man dafür tun muss, ist das Set ordentlich zu mischen. Dadurch werden die Karten in eine zufällige Reihenfolge gebracht, 36! (36 · 35 ··· 1) verschiedene Möglichkeiten können dabei auftreten. Das Überraschende an Fakultäten ist, dass sie sehr schnell wachsen (siehe Anhang). So beträgt 36! bereits 3.72 · 1042.

Man stelle sich nun vor, dass jede Person, die je auf der Erde gelebt hat, ihr ganzes Leben mit dem Mischen von Karten verbracht habe – jede Sekunde eine neue (nie zuvor dagewesene) Reihenfolge. Laut Wikipedia beträgt die Anzahl der jemals geborenen Menschen etwa 110 Milliarden. Nehmen wir nun für alle Zeitalter eine konstante Lebenserwartung der Menschen von 80 Jahren an (das ist natürlich sehr grosszügig abgeschätzt). Was wäre dann die Wahrscheinlichkeit, dass man heute noch eine nie dagewesene Reihenfolge der Karten erreicht, wenn man die Karten zufällig mischt?

Die Wahrscheinlichkeit ergibt sich aus

99.9999999999999999999%

Bei ordentlichem Mischen der Karten kann man also mit enorm grosser Sicherheit sagen, dass die Reihenfolge der Karten noch nie zuvor existiert hat. Jedes Jassspiel schreibt so also unbemerkt Weltgeschichte.

 

Quellen

Beitragsbild: Gerrit van Honthorst: Die Falschspieler

Idee: Vsauce, Youtube (Math Magic), mit weiteren anschaulichen Beispielen zur Grösse von Fakultäten.

Anhang: Vorlesung Analysis I, ETH Zürich

 

Anhang

Für Mathematik-Interessierte: Die Fakultäten wachsen für grosse n ähnlich wie nn. Dies wird mit der Stirlingformel ausgedrückt:

Stirling-Formel

Für grosse n dominiert der Term nn im Nenner. Der Zähler bestehend aus n! wächst folglich ähnlich wie nn, da der Grenzwert des Bruchs 1 beträgt.

Die Physik hinter Superman

Die Szene dürfte bekannt sein: Lois Lane – eine Journalistin aus Metropolis – fällt im freien Fall Richtung Erdboden. Im letzten Moment eilt Superman zur Hilfe, er fliegt der fallenden Frau mit hoher Geschwindigkeit entgegen, fängt sie wenig über dem Boden auf und fliegt mit ihr davon. Lois ist gerettet. Oder etwa nicht?

Super-Physik

Die Situation soll in der Folge mit den Gesetzen der Mechanik betrachtet werden. Das grundsätzliche Problem bei einer Landung auf hartem Boden nach einem längeren freien Fall sind die Kräfte, die auf den Körper wirken. Der Boden gibt nur wenig nach, der Körper wird auf kurzer Strecke – und damit einhergehend in sehr kurzer Zeit – von der hohen Aufprallgeschwindigkeit zum Stillstand gebracht. Dabei wirken eine hohe Beschleunigung und nach Newtons Aktionsgesetz

eine entsprechend grosse Kraft – mit tödlichem Ausgang. Um die Frau zu retten, müsste Superman sie während einer längeren Zeitdauer gleichmässig abbremsen. Dadurch wäre die auf den Körper wirkende Beschleunigung und damit die Kraft kleiner. Genau dies tun etwa Auffangnetze oder Bungee-Seile. Sie geben der Bewegung der fallenden Person etwas nach und verlängern so die Bremszeit.

Superman dagegen bewegt sich beim Auffangen der Journalistin kein bisschen nach unten (alles andere wäre wohl seiner Superkräfte unwürdig) – dadurch wird die Frau in ähnlich kurzer Zeit abgebremst, als wenn sie auf den Boden fallen würde. Es wirken die selben Kräfte auf ihren Körper. Die heroische „Rettungsaktion“ bringt nichts.

Superman – ein Mörder?

Es kommt sogar noch schlimmer: Nach dem Auffangen fliegt Superman mit der Journalistin horizontal weiter. Somit bremst er ihren vertikalen Fall nicht nur in sehr kurzer Zeit ab – wie bereits diskutiert –, er beschleunigt sie auch noch in horizontaler Richtung. Dadurch wirkt eine zusätzliche Kraftkomponente auf den Körper der armen Frau. Supermans „Rettung“ macht also die ganze Situation nur noch schlimmer – Lois wäre eigentlich mit Sicherheit tot.

Videos

Eine solche physikalisch falsche Rettung wird im Film „Man of Steel“ (2013) gezeigt:

In der ersten Verfilmung „Superman“ (1978) ist die Rettung korrekter dargestellt:

 

Quellen

Quelle Videos: youtube.com
Quelle Beitragsbild: wallpaperscraft.com
Quelle: Vorlesung Physik I, ETH

Wir sehen schwarz

Olber’sches Paradoxon

Warum ist der Himmel in der Nacht dunkel? Eine naiv wirkende Frage, die aber physikalisch interessant ist. So selbstverständlich ist die Dunkelheit des Nachthimmels nämlich gar nicht. Klar, die Sonne scheint nicht – die thermische Strahlung kann die sonnenabgewandte Seite der Erde nicht erreichen – aber es gibt ja zahlreiche andere Sterne, die in der Nacht sichtbar sind. Geht man von einem unendlichen und homogenen Universum aus, so sollten wir von in jeder beliebigen Richtung Licht von einem beliebig weit entfernten Stern sehen können. Für uns erscheinen weit entfernte Sterne natürlich kleiner. Ihre Flächenhelligkeit – das heisst der Lichtfluss pro Raumwinkeleinheit an einem gegebenen Ort – ist aber unabhängig von der Distanz. Physikalisch kann man das so ausdrücken (μ ist die Flächenhelligkeit, F der Lichtfluss, Ω der Raumwinkel, L die Leuchtkraft des Sterns, R der Radius des Sterns und d die Distanz von der Erde zum Stern):

Formel zur Flächenhelligkeit

Im Term ganz rechts ist die Distanz d von der Erde zum Stern verschwunden, die Flächenhelligkeit ist also distanzunabhängig. Umgangssprachlich ausgedrückt bedeutet das, dass ein weit entfernter Stern am Nachthimmel zwar kleiner als ein naher erscheint, seine Helligkeit (auf dieser kleineren Fläche) aber genau gleich gross ist. Wenn das Universum also unendlich gross und homogen ist, so müsste der ganze Nachthimmel so hell wie die Sonne erscheinen. In jeder Richtung trifft unsere Sichtlinie früher oder später auf einen Stern. Dies wird mit dem folgenden animierten GIF schön dargestellt:

Olber'sches Paradoxon

Offensichtlich sieht der Nachthimmel nicht so aus. Wo liegt also der Grund? Ist das Universum doch nicht unendlich gross? Oder gibt es irgendwann keine Sterne mehr? Dieses Problem ist als Olber’sches Paradoxon bekannt.

Die Lösung

Aus heutiger Sicht wird das Universum als homogen gefüllt angenommen. Die Unendlichkeit des Universums ist nicht gesichert – wir verfügen kein Wissen darüber. Was sich aber durchgesetzt hat, ist die Theorie des Urknalls. Nach dieser hatte das heutige Universum einen zeitlichen Anfang – oder zumindest eine Zeit, während der alles in einem sehr kleinen Raum konzentriert war. Der Urknall soll laut Kosmologen vor 13.8 Mrd. Jahren stattgefunden haben. Genau da liegt ein Teil der Lösung des Paradoxons.

Aus der durchschnittlichen Sterndichte n (von Astronomen im beobachtbaren Universum bestimmt) und dem durchschnittlichen Radius R eines Sterns kann die Distanz d berechnet werden, bis zu welcher man gehen muss, damit alle Sterne in der Kugel mit Radius d den ganzen Nachthimmel bedecken. Hier soll eine untere Grenze für diese Distanz d bestimmt werden:

Auflösung Olber'sches ParadoxonIn der ersten Gleichung wird im Integral für alle Kugelschalen die von Sternen besetzte Fläche mit der Oberfläche der Kugelschale verglichen. Das gesamte Verhältnis muss 1 ergeben, damit die Sterne „überlappungsfrei“ den Nachthimmel bedecken. In Wirklichkeit verdecken sich die Sterne natürlich gegenseitig, dies wird in dieser Rechnung nicht berücksichtigt – es handelt sich um eine untere Grenze für d. Die Sterndichte n beträgt ungefähr 10¹² Sterne / Mpc³ (Ein Parsec (pc) ist eine astronomische Längeneinheit und beträgt 3.26 Lichtjahre). Als durchschnittlicher Sternradius R soll hier der Radius der Sonne verwendet werden, der etwa 700’000 km beträgt. Somit ergibt sich eine Distanz d von ungefähr 2 · 1037 m. Um diese Strecke mit Lichtgeschwindigkeit (!) zu durchlaufen, werden ungefähr 2 · 1021 Jahre benötigt. Diese Zeit ist um viele Zehnerpotenzen grösser als das Alter des Universums. Wir sehen also am Himmel schwarz, weil wir eigentlich das Universum vor dem Urknall sehen – bevor an dieser Stelle überhaupt Sterne waren. Heute würden wir wahrscheinlich in jeder Richtung tatsächlich einen Stern sehen, das Licht war aber noch nicht lange genug unterwegs, um bis zu uns vorzustossen.

Das ist aber noch nicht die ganze Wahrheit. Es gibt noch einen zweiten Grund, weshalb der Nachthimmel dunkel erscheint. Der Dopplereffekt, der beispielsweise für Schallwellen bei einem vorbeifahrenden Sanitätswagen wahrgenommen werden kann, tritt nämlich auch bei Lichtwellen auf. So erscheint das Licht von Objekten, die sich von uns wegbewegen, gestreckt – wir nehmen eine tiefere Frequenz wahr, das Licht wird rotverschoben:
Dopplereffekt

Edwin Hubble hat die Rotverschiebung von Galaxien untersucht und dabei festgestellt, dass das Licht von ferneren Galaxien eine grössere Rotverschiebung aufweist. Der Grund dafür liegt in der Expansion des Raumes. Sehr weit entfernte Sterne weisen eine so grosse Rotverschiebung auf, dass ihre Strahlung für unser Auge nicht mehr sichtbar ist. Obwohl Messgeräte die Strahlung ferner Sterne also detektieren können (besonders auch die aus dem Urknall resultierende Kosmische Hintergrundstrahlung), bleibt sie für uns unsichtbar.

Der Grund für die Dunkelheit des Nachthimmels liegt also einerseits am zeitlichen Anfang des Universums – die Sterne waren nicht schon immer an ihrer heutigen Position –, andererseits an der Expansion des Universums und der damit verbundenen Rotverschiebung.

Video

Ein Video von Minutephysics erklärt das Olber’sche Paradoxon sehr anschaulich:

Quellen

Nussbaumer, Harry und Schmid, Hans Martin: Astronomie, 8. Auflage. Vdf Hochschulverlag AG an der ETH Zürich, 2003.

Why is it Dark at Night?“ von Minutephysics

 

Quellen Bilder:

Beitragsbild: c-mos.de
GIF: Wikipedia

Das Auge und die Sonne

Eine elegante Falsch-Argumentation

Eigentlich hätte ich einen Beitrag darüber schreiben wollen, wie elegant die Naturwissenschaft sein kann. Es ist nämlich möglich, hätte ich begonnen, die Oberflächentemperatur der Sonne zu berechnen – und das nur mit der Kenntnis des sichtbaren Spektrums des menschlichen Auges. Und so wäre es weitergegangen: Für die Argumentation sind einzig die Evolutionstheorie Darwins und die Verteilung der Schwarzkörper-Strahlung Plancks nötig. Der für unser Sehorgan sichtbare Teil des elektromagnetischen Spektrums liegt ungefähr zwischen 350 und 650 nm. Für den Menschen – und wohl besonders für seine Vorfahren in der Evolutionsgeschichte – ist das Sehen von (überlebens-) wichtiger Bedeutung. Deshalb sollte man annehmen können, dass sich dieses Sinnesorgan im Laufe der Entwicklung optimiert hat und nun perfekt den Bedingungen auf der Erde angepasst ist. Da die natürliche elektromagnetische Strahlung zum allergrössten Teil von der Sonne stammt, ist es einleuchtend, dass das Auge gerade in dem Bereich am empfindlichsten sein sollte, in dem die Sonne am meisten Strahlung aussendet. Also sollte umgekehrt argumentiert das Maximum der Strahlungsleistung der Sonne gerade etwa in der Mitte des sichtbaren Spektrums liegen, also bei ungefähr 500 nm (Durchschnitt aus 350 und 650 nm). Nun kommt die Verteilung der Schwarzkörper-Strahlung zum Zug, welche Planck berechnete und damit den ersten Stein zur Quantenphysik legte. Für einen Schwarzen Körper (theoretischer Körper, der thermische Strahlung ideal absorbiert und emittiert) gilt abhängig von der Temperatur folgende Wellenlängenverteilung der thermischen Strahlung (bei welcher Wellenlänge gibt der Schwarze Körper wieviel Leistung ab):

Die Einheit ist gewöhnlich: 

(abgestrahlte Leistung normiert auf Fläche und Wellenlänge).

Sonnenspektrum

Die Sonne kann in sinnvoller Näherung als Schwarzer Körper betrachtet werden. Im folgenden Diagramm sind die gemessene Wellenlängenverteilung der Sonnenstrahlung (orange) und die theoretische Verteilung der Strahlung eines Schwarzen Körpers (gelb) eingezeichnet:

Sonne_Strahlungsintensitaet

Die beiden Kurven stimmen ziemlich gut überein. Die Maxima der Kurven liegen ungefähr bei einer Wellenlänge von 500 nm (im Diagramm oben ersichtlich). Das exakte Maximum der Schwarzkörper-Strahlung erhält man aus dem Wienschen Verschiebungsgesetz. Dieses findet man, wenn man die von Planck gefundene Verteilung der Schwarzkörper-Strahlung nach der Wellenlänge ableitet und gleich Null setzt:

Das dabei gefundene Verschiebungsgesetz lautet:

(der Wert aus der Wellenlänge, bei der die Strahlung maximal ist, multipliziert mit der Temperatur T, ist konstant).
Die Wellenlänge, bei der die Strahlung der Sonne maximal ist, scheint folglich abhängig von der Temperatur T der Sonne zu sein. Umgekehrt kann aus der maximalen Wellenlänge die Temperatur der Sonne bestimmt werden. Aus der Argumentation mit der Evolution haben wir weiter oben geschlossen, dass die maximale Strahlungsleistung der Sonne etwa in der Mitte des vom menschlichen Auge sichtbaren Spektrums liegen sollte – bei 500 nm oder 0.5 µm. Aus dem Wienschen Verschiebungsgesetz erhalten wir damit eine Temperatur T der Sonne von

Dies entspricht ziemlich genau der Oberflächentemperatur der Sonne (5’778 K). Damit konnten wir allein aus der Kenntnis des Wellenlängenbereichs des sichtbaren Spektrums des menschlichen Auges die Oberflächentemperatur der Sonne berechnen. Dabei haben wir zudem zwei grundlegende Erkenntnisse der Naturwissenschaft verwendet: die Evolution und die Verteilung der Schwarzkörper-Strahlung.  Die Schönheit der Naturwissenschaft konnte einmal mehr aufgezeigt werden, würde ich nun abschliessend schreiben und den Beitrag veröffentlichen. Unberücksichtigt würde dabei bleiben, dass die Schönheit der Naturwissenschaften genau darin liegt, dass sie sich keinen Deut um ihre Schönheit schert. Und dass das Vorangegangene schlicht falsch ist.

Die (unschöne) Wahrheit

Ich bin in Zusammenhang mit der Astronomie auf das Wiensche Verschiebungsgesetz gestossen und habe dabei die Wellenlänge ausgerechnet, bei der die Strahlung der Sonne maximal ist. Dass die resultierende Wellenlänge (etwa 500 nm, wie oben berechnet) gerade in der Mitte des sichtbaren Spektrums liegt, kann kein Zufall sein, war ich mir sicher. Zu verlockend ist die Kombination mit der Evolutionstheorie, welche die oben geführte Argumentation möglich macht und doch zweifellos ziemlich elegant ist. Eigentlich auf der Suche nach wissenschaftlichen Publikationen, die meine Evolutions-These bestätigen sollten, stiess ich schliesslich auf die Website scienceblogs.de und von dort auf die wissenschaftliche Publikation von Soffer und Lynch. Dort wurde ich auf meinen (zum Teil sogar in wissenschaftlichen Texten publizierten) Fehler aufmerksam gemacht. Ich werde hier nun kurz die Gründe aufführen, weshalb die Argumentation oben nicht richtig ist. Das Lesen der Publikation von Soffer und Lynch kann ich sehr empfehlen, sie ist bewundernswert klar verfasst.

Die Verteilung der Schwarzkörper-Strahlung ist eine Dichte-Funktion. Sie gibt an, wieviel Leistung vom Schwarzkörper ausgestrahlt wird, normiert auf eine Fläche (wenn der Körper auf eine grössere Fläche scheint, so ist natürlich auch die durch Strahlung übertragene Leistung grösser) und normiert auf ein Wellenlängen-Intervall. Es wird also die Strahlungsleistung der einzelnen Wellenlängen über ein Wellenlängen-Intervall „aufsummiert“ (bzw. integriert). Ähnlich würde man beispielsweise auch die Verteilung der Körpergrössen der Menschen in der Schweiz angeben. Es ist egal, wie gross nun das einzelne Individuum genau ist, viel interessanter sind die Anzahl Menschen, die beispielsweise zwischen 1.78 und 1.79 Meter liegen. Man normiert die Verteilung auf ein Intervall – in diesem Beispiel Zentimeter – und gibt dann die Anzahl der individuellen Werte an, die in dieses Intervall fallen.
Das menschliche Sehen wiederum ist keine Dichte-Funktion. Wir „sehen“ die Leistung der ins Auge einfallenden Strahlung bei 560, 530, bzw. 420 nm (RGB), weisen diesen Wellenlängen also einen eindeutigen Leistungs-Wert zu. Insofern hinkt der Vergleich zwischen dem menschlichen Sehen und der Verteilung der Schwarzkörper- (bzw. Sonnen-) Strahlung, da man hier „apples and oranges“ (nach Soffer und Lynch) vergleicht.

Dichte-Funktionen sind abhängig von den Intervallen, über die man normiert. Dies erscheint plausibel, da ja alle Einzelwerte über einem Intervall „aufsummiert“ werden. Werden die Intervalle geändert, so ändert sich auch die Dichte-Funktion. Normiert man die Schwarzkörper-Strahlung über Wellenlängen-Intervalle, so sieht die Kurve folgendermassen aus (wie im Diagramm oben schon gesehen):

solarspectrum1

Die kleine Kurve (mit „Luminous Efficiency“ bezeichnet) gibt die Empfindlichkeit des menschlichen Auges abhängig von der Wellenlänge an. Die Maxima der Schwarzkörper-Strahlung und der Empfindlichkeit des menschlichen Auges liegen ungefähr bei der gleichen Wellenlänge – genau wie in der obigen Argumentation vorausgesagt. Normiert man die Schwarzkörper-Strahlung allerdings auf Frequenz-Intervalle, so sieht die Sache ganz anders aus:

solarspectrum2

Die Kurve der Empfindlichkeit des Auges sieht ähnlich aus wie zuvor (sie ist in der Tat identisch zu derjenigen auf dem vorhergehenden Diagramm), allerdings hat sich die Kurve der Schwarzkörper-Strahlung verändert. Ihr Maximum liegt nun weiter links als dasjenige der Kurve des Auges – im infraroten Bereich. Der Grund dafür ist der folgende: Wellenlänge und Frequenz von Strahlung hängen über die Beziehung

zusammen. Dabei ist ν die Frequenz, λ die Wellenlänge und c die Lichtgeschwindigkeit. Durch Ableiten erhält man die Gleichung:

Der Faktor c/λ² ist gerade der Umrechnungsfaktor von Intervallen normiert auf die Wellenlänge in Bezug auf die Intervalle normiert auf die Frequenz. So sehen die gleichmässigen Intervalle auf dem linken Diagramm unten auf dem rechten verzerrt aus. Die Intervalle sind gleichmässig auf Wellenlängen normiert, werden sie aber ins auf Frequenzen normierte Diagramm gebracht, so werden sie durch den Faktor c/λ² verzogen. Die Intervalle sind bei grossen Frequenzen (kleinen Wellenlängen) viel grösser als bei kleinen Frequenzen (grossen Wellenlängen). Normiert man stattdessen auf gleichmässige Frequenz-Intervalle, so werden in Bezug auf diese Normierung bei den kleinen Frequenzen zu grosse Intervalle aufsummiert, das Maximum verschiebt sich zu kleineren Frequenzen (Infrarot-Bereich). Genau das sieht man im auf Frequenzen-Intervalle normierten Diagramm oben.

AJPSofferLynch (verschoben)AJPSofferLynch (verschoben)

 

 

 

 

 

 

Das Verzerren der Intervalle kann man folgendermassen gut plausibilisieren: Die Intervalle 100 nm bis 200 nm und 900 nm bis 1’000 nm sind offensichtlich gleich gross (Differenz von 100 nm). Rechnet man sie aber nun mit der Formel ν = c/λ um, so erhält man die folgenden Intervalle:

Das Intervall mit den kleineren Frequenzen ist nun viel kleiner als das Intervall mit den grösseren Frequenzen (wie im Diagramm oben aufgezeichnet).

Bei Dichte-Funktionen hängt das Maximum von der Intervall-Normierung ab, deshalb ist ein direkter Vergleich mit einer „normalen“ Funktion nicht sinnvoll. Das Maximum der Dichte-Funktion ist nicht allgemein gültig. So liegt das Maximum bei der Frequenz-Normierung bei grösseren Wellenlängen als bei der Wellenlängen-Normierung. Bei der „normalen“ Funktion des menschlichen Sehens dagegen wird das Maximum beim Wechsel von Wellenlängen auf Frequenzen nicht verändert.

Soffer und Lynch zeigen zudem auf, dass das menschliche Auge alles andere als ideal an das Sonnenspektrum angepasst ist. Dies einerseits wohl wegen der Wasserlebewesen-Vergangenheit des Menschen in der Evolutionsgeschichte und andererseits wegen den biochemischen Grenzen des Sehprozesses.

Abschliessend bringen Soffer und Lynch das ganze Problem auf den Punkt:

„The fact that in wavelength units the spectrum roughly agrees with the peak sensitivity of the eye is an accidental and meaningless quirk involving the units in which the spectrum is plotted.“ (S. 949)

Damit wäre die Argumentation nun endgültig abgeschlossen.

 

Quellen:

Soffer, Bernard H. und Lynch, David K.: Some paradoxes, errors, and resolutions concerning the spectral optimization of human vision. American Association of Physics Teachers, November 1999 (Link)

Nussbaumer, Harry und Schmid, Hans Martin: Astronomie, 8. Auflage. Vdf Hochschulverlag AG an der ETH Zürich, 2003.

Quellen Bilder:

Beitragsbild: nasa.gov
Spektrum Sonne: Wikipedia
Diagramme: aus Soffer und Lynch

Treaps

Das Problem

Das Ordnen und Durchsuchen von grossen Datenmengen sind Aufgaben, die in der Informatik häufig auftreten und schnell ausgeführt werden sollten. Wer will beispielsweise eine halbe Minute warten, bis Facebook beim Login den Benutzernamen in der Datenbank mit Millionen von Benutzern gefunden und mit dem eingegebenen Passwort verglichen hat? Genau dafür braucht es Algorithmen, die Daten geschickt abspeichern und so schnell wiederfinden können. Eine Lösung für diese Aufgaben sind sogenannte Treaps. Der Name setzt sich zusammen aus den Wörtern Tree und Heap und beschreibt die Idee ziemlich genau. Das Konzept der Treaps soll hier aufbauend erklärt werden:

Man versetze sich in die Lage eines (vergleichsweise kleinen) Social Networks, das eine Million Benutzer-IDs (Zahlen) abspeichern und schnell wiederfinden soll. Die offensichtlichste Lösung dafür ist wohl eine Liste. Beim Login geht das System die ganze Liste durch, bis die Benutzer-ID gefunden wurde. Im schlimmsten Fall müssen so also eine Million Zahlen verglichen werden. Wächst das Social Network weiter, so steigt auch die Zeit, die das System braucht, um die passende Benutzer-ID zu finden – und zwar linear. Bei einer Milliarde Benutzer müssen im schlimmsten Fall eine Milliarde Zahlen verglichen werden. Der Menschenverstand genügt um zu sehen, dass so das System irgendwann ziemlich langsam wird. Eine bessere Lösung muss her.

Binäre Suchbäume

Eine Lösung liefern sogenannte binäre Suchbäume (trees). Diese bestehen aus Knoten (nodes) und Verästelungen. Jeder Knoten besitzt eine Zahl (key) und maximal zwei ausgehende Äste (pointers) auf weitere Knoten. Beginnend mit einem obersten Knoten (root) entsteht so gegen unten ein „Baum“ mit immer mehr Verästelungen. Die untersten Knoten besitzen keine ausgehenden Äste mehr, sie werden auch Blätter (leaves) genannt.

Binärer Suchbaum
Grundaufbau eines binären Suchbaumes

Die Idee von binären Suchbäumen ist nun, den Baum so anzuordnen, dass bei jedem Knoten der linke ausgehende Ast auf einen Unterbaum mit kleineren Zahlen als die Zahl des Knotens und der rechte auf einen Unterbaum mit grösseren Zahlen als die Zahl des Knotens zeigt. So entsteht ein besonderer Baum.

Suchbaum
Suchbaum (Suche nach Zahl 25 dargestellt)

Will das System nun eine Zahl in diesem Baum suchen, so beginnt es beim obersten Knoten des Baumes. Mit einem Zahlenvergleich wird überprüft, ob die Zahl des Knotens grösser bzw. kleiner als die gesuchte Zahl ist. Entsprechend folgt es dem linken bzw. rechten Ast des Knotens. Dies wird solange weitergeführt, bis entweder der Knoten mit der richtigen Zahl gefunden wurde, oder der Ast, dem weiter gefolgt werden sollte, nicht mehr vorhanden ist. Im ersten Fall hat das System die Zahl gefunden, im zweiten Fall befindet sich die gesuchte Zahl nicht in der Menge. Das Hinzufügen von Zahlen in die Menge funktioniert sehr ähnlich. Befindet sich die Zahl noch nicht in der Menge, so folgt das System wiederum den entsprechenden Ästen und fügt schliesslich an der fehlenden Stelle einen neuen Knoten und den verbindenden Ast ein. Das Entfernen von Zahlen ist etwas komplizierter, kann aber vom System ebenfalls schnell ausgeführt werden. Ist der Knoten mit der zu löschenden Zahl gefunden, so kann dieser nicht einfach gelöscht werden, da so die verbindenden Ästen zu eventuellen Unterbäumen dieses Knotens fehlen würden. Folglich muss der zu löschende Knoten zuerst durch Rotationen, welche die Suchbaum-Eigenschaften des Baumes erhalten, zu einem Blatt gemacht werden (mehr dazu später). Da Blätter keine Äste zu Unterbäumen besitzen, kann der Knoten dann gelöscht werden. So weit das Konzept. Warum sollte das Abspeichern in dieser Form aber nun so viel besser als die Umsetzung mit der Liste sein?

Man stelle sich einen perfekten Baum vor: Jeder Knoten – bis auf die Blätter ganz unten – besitzt genau zwei Äste auf Unterbäume. Zählt man nun die Knoten der verschiedenen Ebenen ausgehend vom obersten Knoten, so stellt man exponentielles Wachstum fest: 1, 2, 4, 8, 16, 32, … Die Anzahl der Knoten – und somit auch die Anzahl der Zahlen, die im Baum gespeichert werden können – nimmt sehr schnell zu. Für die Operationen wie das Finden, Hinzufügen oder Löschen von Zahlen ist aber nur die Höhe des Baumes von Bedeutung. Bei 7 Zahlen braucht das System höchstens 3 Zahlenvergleiche, dann ist die Zahl gefunden. Die Anzahl der benötigten Operationen wächst folglich nur wie der Logarithmus der Anzahl Zahlen in der Menge. Bei einer Million Zahlen sind also nur log₂1’000’000 ≅ 20 Operationen nötig. Bei einer Milliarde genügen log₂1’000’000’000 ≅ 27. Das zeigt die Effektivität von Suchbäumen.

Perfekte und entartete Bäume
Ein „perfekter“ Baum (links) gegenüber einem „entarteten“ Baum (rechts)

„Entartete“ Bäume

Ein Problem gibt es aber noch: Wir haben hier von einem „perfekten“ Baum gesprochen. Was garantiert, dass der Baum wirklich „perfekt“ wird? Fügt man beispielsweise die Zahlen in geordneter Reihenfolge dem Baum zu, so entsteht ein entarteter Baum, der eigentlich wieder das Analoge zur besprochenen Liste darstellt. Das Problem des binären Suchbaumes ist also, dass der Baum bestehend aus den gleichen Zahlen auf verschiedene Weisen aufgebaut werden kann. Im schlimmsten Fall liefert er so gegenüber der Liste gar keinen Vorteil mehr. Dies sollte verhindert werden. Genau deshalb braucht es das Konzept des Heaps. Ein Heap ist ein Baum, bei dem jeder Knoten eine Priorität besitzt. Derjenige Knoten mit der höchsten Priorität befindet sich zuoberst. Alle Unterbäume müssen Knoten kleinerer Priorität aufweisen.

Heap
Heap mit Prioritäten (weiss)

Treaps

Der Treap verbindet die Konzepte des Suchbaumes und des Heaps: Jeder Knoten besitzt eine Zahl (key), eine zufällige Priorität (priority) und maximal zwei ausgehende Äste (pointers). Wiederum müssen alle Knoten des linken Unterbaumes eines Knoten eine kleinere Zahl aufweisen und diejenigen im rechten Unterbaum eine grössere. Dabei muss aber auch die Heap-Eigenschaft erfüllt werden: Alle Knoten in den Unterbäumen eines Knotens müssen eine kleinere Priorität aufweisen als der Knoten selber. Somit wird der Treap eindeutig: Zuoberst befindet sich der Knoten mit der grössten Priorität. Der linke Ast zeigt auf denjenigen Knoten, der im Unterbaum der Knoten mit kleineren Zahlen die grösste Priorität besitzt. Analog zeigt der rechte Ast auf denjenigen Knoten, der im Unterbaum der Knoten mit grösseren Zahlen die grösste Priorität besitzt. Dies wird so weitergeführt und der ganze Baum kann eindeutig aufgebaut werden (mit vollständiger Induktion beweisbar). Die zufällige Wahl der Prioritäten „garantiert“ unter den Gesetzen der Wahrscheinlichkeit einen annehmbar „perfekten“ Baum.

Treap
Treap mit Zahlen (schwarz) und Prioritäten (weiss)

Das Auffinden von Zahlen im Treap funktioniert gleich wie zuvor. Das Hinzufügen von Zahlen wird allerdings etwas komplizierter: Wie zuvor fügt man einen neuen Knoten an der benötigten Stelle an, da dieser aber nun eine zufällige Zahl als Priorität besitzt, könnte eventuell die Heap-Eigenschaft verletzt sein (wenn die Priorität grösser ist als diejenige des Knotens darüber).

Einfügen einer neuen Zahl
Einfügen einer neuen Zahl in den Treap. Die Heap-Eigenschaft wird verletzt und muss nun durch Rotationen wiederhergestellt werden.

In diesem Fall müssen Rotationen durchgeführt werden, welche die Suchbaum-Eigenschaften erhalten. Diese sind unten dargestellt:

Rotationen bei Suchbäumen
Rotationen von Unterbäumen, welche die Suchbaumeigenschaften erhalten.

Ist die Priorität des rechten Knotens zu gross, so wird eine Linksrotation durchgeführt, ist umgekehrt diejenige des linken zu gross, so wird gegen rechts rotiert. Man sieht leicht, dass dabei die Suchbaum-Eigenschaft erhalten bleibt. Das Löschen von Zahlen kann ebenfalls mit diesen Rotationen umgesetzt werden. Dabei setzt man die Priorität des zu löschenden Knoten auf -1 (kleiner als alle möglichen Prioritäten) und führt so lange Rotationen durch, bis die Heap-Eigenschaft wieder erfüllt ist. Nun ist der zu löschende Knoten zwingend ein Blatt des Treaps und kann somit entfernt werden.

Ich habe das Konzept des Treaps in der Programmiersprache C++ als Klasse umgesetzt. Der Quellcode ist am Ende dieses Beitrages zu finden. Die besprochenen Funktionen (Suchen, Hinzufügen, Löschen) und noch weitere sind als Memberfunktionen der Klasse Treap umgesetzt. Ich habe die Funktionen getestet, falls der Code aber dennoch Fehler enthalten sollte, wäre ich an Feedback interessiert.

 

Quellen

Quellcode Treap (C++): treap.cpp

Quelle Beitragsbild: Wikipedia
Quelle: Vorlesung Informatik für Mathematiker und Physiker, ETH

Rapid sucht Objekte

Das Fahrzeug Rapid kann nun Objekte anhand ihrer Farbe erkennen. Dazu wird der Rapid vor ein gewünschtes Objekt gestellt und das Selbststeuerungs-Programm gestartet. Der eingebaute Raspberry Pi 2 schiesst nun über das Kamera-Modul ein Foto und liest die Pixelfarben von Hundert Pixeln (ein 10×10-Quadrat) in der Mitte des Bildes aus. Dann berechnet er die durchschnittliche Farbe (den RGB-Wert) dieser Hundert Pixel. Diese Farbe wird in der Folge als gesuchte Farbe bezeichnet.

Aufnahme vorher
Aufgenommenes Bild
Aufnahme nachher
10×10-Quadrat (schwarz eingezeichnet)

Anhand der gesuchten Farbe werden nun Objekte verglichen. Der Rapid schiesst laufend weitere Fotos, erkennt Objekte ähnlicher Farbe und steuert auf sie zu. Als „ähnlich“ gilt eine Farbe, wenn alle ihre RGB-Werte nicht mehr als ± 20 von der gesuchten Farbe abweichen.

Suche

Unten ist ein aufgenommenes Foto des Rapid zu sehen. Darunter sieht man das gleiche Foto nach der Bildauswertung. Bereiche, die eine ähnliche Farbe wie die gesuchte Farbe aufweisen, sind weiss eingezeichnet, alle anderen schwarz. Der Schwerpunkt der weissen Bereiche ist mit dem grün-gelben Quadrat gekennzeichnet. Die Farbe dieses Quadrates stellt die gesuchte Farbe dar. Da sich der Schwerpunkt ungefähr in der Mitte des Bildes befindet, fährt der Rapid nun geradeaus.

Aufnahme vorher
Originalbild
Aufnahme nachher
Bildauswertung

Hier ist ein weiteres Bild-Paar zu sehen. Wiederum zeichnet der Rapid die Bereiche mit Ähnlichkeit zur gesuchten Farbe weiss, der Schwerpunkt wird mit dem gelb-grünen Quadrat angezeigt. Da sich der Schwerpunkt nun eher rechts im Bild befindet, steuert der Rapid leicht nach rechts.

Aufnahme vorher
Originalbild
Aufnahme nachher
Bildauswertung

Wird nirgends auf dem Bild eine ähnliche Farbe zur gesuchten Farbe gefunden (im unteren Bild sind keine weissen Bereiche zu sehen), so führt der Rapid eine Linksdrehung aus, um zu sehen, ob sich irgendwo sonst im Raum noch ein gesuchtes Objekt befindet.

Aufnahme vorher
Originalbild
Aufnahme nachher
Bildauswertung

Video

Auf folgendem Video ist die ganze Suche zu sehen:

Quellen

Quelle Bilder: Luc Schnell
Quelle Video: Luc Schnell (auf Youtube)

Projekt Rapid

Rapid

Das Fahrzeug Rapid (Raspberry Pi drive) habe ich diesen Sommer gebaut. Die Hauptkomponenten sind ein Raspberry Pi 2, eine L298-Brücke (zum Ansteuern der Motoren), zwei Getriebemotoren und ein 7,2 V RC-Akku. Das Gehäuse ist eine einfache Tupperbox (aus der Brockenstube). In einem ersten Schritt habe ich das Fahrzeug so gebaut, dass man es entweder über WLAN oder Bluetooth fernsteuern kann. In der nächsten Zeit werde ich daran arbeiten, dass der Rapid durch eine Kamera die Steuerung selber übernehmen kann.

P1040352

Funktionsweise

Das Fahrzeug ist folgendermassen aufgebaut: Die L298-Brücke versorgt die Motoren mit der für die Drehrichtung und -geschwindigkeit erforderlichen Spannung bzw. Leistung. Gespiesen wird sie selber vom RC-Akku (befindet sich unten im Rapid), die Befehle erhält sie vom Raspberry Pi (über die GPIO-Pins). Der Rapid kann nur über die Drehgeschwindigkeit der Räder gesteuert werden, da man die Achsen nicht bewegen kann. Der technische Begriff dazu lautet Pulse Width Modulation (PWM). Soll das Fahrzeug beispielsweise eine Linkskurve vollführen, so sendet der Raspberry Pi über die Pins die Information, dass die Räder rechts schneller drehen sollen als diejenigen links. Im Extremfall (um sich auf der Stelle zu drehen) kann man sogar die linken Räder rückwärts drehen lassen. Die Fernsteuerung funktioniert entweder über WLAN (SSH-Verbindung mit dem Raspberry Pi) oder Bluetooth (da Wii-Vernbedienungen über Bluetooth kommunizieren, kann man eine solche verwenden).

Video

Das folgende Video zeigt den Startprozess und die Fernsteuerung des Rapid:

Arbeitsschritte

Zuerst erfolgte das Zusammenbauen der einzelnen Komponenten. Die Motoren erhielt ich als Bauset. Leider waren die mitgelieferten Achsenstäbe zu kurz für die Tupperbox, deshalb musste ich noch längere nachbestellen. Den Raspberry Pi habe ich mit dem System Raspbian in Betrieb genommen (gute Anleitungen dazu gibt es auf raspberrypi.org).

Als nächsten Schritt baute ich die Komponenten in die Tupperbox ein. Die L298-Brücke habe ich etwas erhöht, damit mehr Luft durchströmen kann und das Bauteil nicht überhitzt. Die Räder sind mit Madenschrauben an den Motorachsen fixiert. Die beiden Motoren habe ich an der Unterseite der Tupperbox festgeschraubt.  Nicht definitiv fixiert habe ich den Raspberry Pi, damit er noch aus der Box herausgenommen und an einen Bildschirm angeschlossen werden kann.

Der dritte Schritt bestand aus der Verkabelung. Hier muss sehr vorsichtig vorgegangen werden, da Fehler nicht verziehen werden und durchaus in einem kaputten Raspberry Pi enden können (was bei mir unglücklicherweise geschah). Im zweiten Anlauf hat es dann aber funktioniert.

Während dem letzten Schritt musste der Raspberry Pi noch programmiert werden, damit er auf Benutzereingaben reagieren und das Fahrzeug steuern kann. Ich habe dazu extra die Programmiersprache Python gelernt. Mit ihrer raffinierten Einfachheit passt sie sehr gut zum Raspberry Pi. Damit war der Bau des Rapid abgeschlossen.

 

Quellen

Quelle Bilder: Luc Schnell
Quelle Video: Luc Schnell (auf Youtube)

Die unendliche Treppe

Identische Bausteine werden aufeinander gestapelt: Ist es möglich, dies so zu tun, dass der Stapel beliebig weit nach vorne reicht, ohne dass er umfällt (siehe Bild)?

Schwerpunkte2b

Das Bauchgefühl scheint diese Frage sofort zu verneinen, es ist aber tatsächlich möglich – mathematisch betrachtet zumindest. Der Stapel wird optimiert (siehe Grafik). Konkret bedeutet das, dass der Schwerpunkt aller vorherigen Bausteine immer genau auf der Kante des nächsten Bausteines zu liegen kommen muss. So liegt beispielsweise der Schwerpunkt der ersten vier Bausteine auf der Kante des fünften Bausteins (in der Grafik mit den Pfeilen angedeutet). Bei diesem Aufbau steht der Turm gerade noch und fällt nicht um.

Harmonischebrueckerp copy

Nun folgt der mathematische Beweis, dass ein solcher Turm (mit unendlich vielen Bausteinen) in der Horizontale ins Unendliche strebt. Zuerst stellt sich die Frage, wie weit die einzelnen Bausteine gegenüber dem nachfolgenden Stein verschoben sein müssen, damit wie erwähnt der Schwerpunkt gerade über der Kante liegt. Schauen wir uns also den n-ten Stein an. Sein eigener Schwerpunkt liegt in der Mitte des Steins. Der Schwerpunkt der (n – 1) Steine über ihm liegt genau auf seiner linken Kante. Damit der Turm nicht kippt und der Schwerpunkt der n Steine genau auf der Kante des (n + 1)-ten Steins zu liegen kommt, muss

x • (n – 1) = (1 – x) • 1

gelten (Hebel mal Gewichtskraft). Die Variable x steht dabei für die Strecke, die der n-te Stein gegenüber dem nächsten verschoben ist, der Term (1 – x) folgt aus der Annahme, dass ein Baustein 2 Einheiten lang ist. Die Gleichung kann umgeformt werden zu

x • (n – 1) + x = 1
x • ((n – 1) + 1) = 1
x • n = 1
x = 1/n.

Somit ist der erste Stein gegenüber dem zweiten um 1/1 = 1 Einheit verschoben, der zweite gegenüber dem dritten um 1/2, etc. Daraus ergibt sich für die horizontale Ausdehnung des Stapels:

1 + 1/2 + 1/3 + 1/4 + 1/5 + … .

Mathematiker wissen, dass der Grenzwert dieser (harmonischen) Summe Unendlich ist. Dies kann einfach bewiesen werden:

1 + 1/2 + 1/3 + 1/4 + 1/5 + 1/6 + 1/7 + 1/8 + … >
1 + 1/2 + (1/4 + 1/4) + (1/8 + 1/8 + 1/8 + 1/8) + … =
1 + 1/2 + 1/2 + 1/2 + … .

Es ist keine grosse Kunst zu sehen, dass das ewig wiederholende Addieren von 1/2 zu 1 gegen Unendlich strebt. Somit ist es möglich, einen Stapel zu bauen, der horizontal beliebig weit reichen kann. Der Haken an der Sache ist, dass es extrem viele Bausteine braucht, um eine vernünftige Distanz zu erreichen (die gewonnene Strecke pro Stein beträgt ja 1/n, wird also immer kleiner), weshalb der Turm extrem hoch werden und eine unglaubliche Masse an Baumaterialien verschlingen würde. In der Theorie könnte man sich so aber (mit viel Geduld) eine unendliche Treppe bauen.

 

Quellen

Beitragsbild: endzeitinfo.files.wordpress.com
Bilder:  wundersamessammelsurium.info, wikipedia.org (verändert)

Heureka – oder auch nicht

Heureka!

Die bekannte Geschichte: Ein Goldschmied soll für den Herrscher Hieron II. einen Ehrenkranz schmieden, dazu erhält er einen Barren Gold, den er verarbeiten soll. Nach einiger Zeit erhält Hieron den fertigen Kranz zurück, er ist wirklich schön geworden, aber Hieron hegt einen Verdacht gegenüber dem Goldschmied: Was, wenn dieser etwas Gold vom Barren abgezweigt und das fehlende Gewicht einfach mit Silber kompensiert hat? Eine solche Silber–Gold–Legierung wäre äusserlich nicht von reinem Gold zu unterscheiden. Hieron beauftragt also den berühmten Archimedes, den Reinheitsgrad des Ehrenkranzes zu bestimmen, ohne das gelungene Werk zu zerstören. Zum Vergleich bekommt Archimedes einen gleichen Barren Gold, den auch der Goldschmied erhalten hat. Die Aufgabe ist im Grunde einfach: eine Silber–Gold–Legierung hat eine kleinere Dichte als reines Gold, deshalb müsste der (gleich schwere) Kranz ein grösseres Volumen als der Goldbarren haben, falls der Goldschmied nicht ehrlich gearbeitet hat. Das Problem liegt in der Bestimmung des Volumens des Kranzes, ohne ihn einzuschmelzen. Bei einem Bad stösst der grübelnde Archimedes schliesslich auf die Lösung. Euphorisch rennt er auf die Strasse und ruft das berühmte Wort: „Heureka!“. Er hat die Idee, den Ehrenkranz und den Barren nacheinander in einen bis zum Rand mit Wasser gefüllten Behälter zu geben und dann das Volumen des übergeschwappten Wassers zu messen, das dem Volumen des eingelassenen Körpers entsprechen sollte. Schwappt beim Einlassen des Kranzes mehr Wasser über als beim Einlassen des Barrens, so ist der Goldschmied überführt – einfach in der Theorie, in der Praxis jedoch nicht umsetzbar.

Die Rechnung

Eine kurze Überschlagsrechnung: Der Kranz habe einen Durchmesser von 17.5 cm (durchschnittlicher Durchmesser des menschlichen Kopfs) und ein Gewicht von 1 kg. Es soll untersucht werden, ob der Goldschmied 100 g des Goldes abgezweigt und mit Silber ersetzt hat. Dazu legt Archimedes nacheinander den Ehrenkranz und den Goldbarren in einen runden Eimer mit einem Durchmesser von 20 cm (der Kranz muss ja Platz haben). Mit der Dichte von Gold (19.3 g/cm³) lässt sich das Volumen des Goldbarrens ausrechnen: 51.8 cm³. Ist der Kranz rein, so hat er das selbe Volumen, ist er mit 100 g Silber (10.5 g/cm³) gestreckt, so weist er ein Volumen von 56.2 cm³ auf. Der Unterschied beträgt dann 4.4 cm³. Im Eimer (mit der Grundfläche von πr² = 314 cm²) entspricht dies einem Anstieg von 0.01 cm. Nicht gerade viel. Störeffekte wie Wellen, die beim Einlassen des Kranzes und des Goldbarrens im Wasser entstehen oder die Oberflächenspannung des Wassers machen eine präzise Messung unmöglich. Die Messmethode muss verworfen werden – schliesslich hängt wohl das Leben des Goldschmieds davon ab.

Die Lösung

Wie kann aber das Problem gelöst werden? Mit einer einfachen Waage unter Wasser. Der Goldbarren und der Ehrenkranz verdrängen ja entsprechend ihrem Volumen Wasser. Dadurch wirkt eine Auftriebskraft auf sie, die proportional zum Volumen ist. Haben der Ehrenkranz und der Goldbarren das gleiche Volumen, so sind auch die Auftriebskräfte (und natürlich auch die Gravitationskräfte) auf beiden Seiten der Waage gleich, die Waage bleibt ausgeglichen und der Goldschmied verschont. Hat der Kranz jedoch ein grösseres Volumen, so ist auch die Auftriebskraft auf dieser Seite grösser und die Waage schlägt zum Goldbarren aus. Mit den vorhin verwendeten Zahlen würde der Kräfteunterschied ungefähr 0.044 N (entspricht auf der Erde etwa 4.4 g) betragen, dies ist mit einer guten Waage zweifelsfrei messbar. Somit kann dem Goldschmied ein gerechter Prozess gemacht werden.

Wasser-Waage
Wasser-Waage

 

Quellen

Beitragsbild: Wikipedia
Bild Wasser-Waage: mwey-physik.ch
Idee: Drösser, Christoph: Der Physik-Verführer. Reinbek bei Hamburg: Rowohlt Taschenbuch Verlag, 2010.

 

Eckige Sterne

Zeichen der Sterne

Wie stellt man einen Stern bildlich dar? Die Mehrheit der Menschen würde wohl zu einem gelben, orangen oder goldenen Stift greifen und eine zackige Form mit mehreren Ecken zeichnen. Woher kommt das? Sterne sind ja eigentlich (als bekanntestes Beispiel unsere Sonne) Ellipsoide, sollten also aus grosser Entfernung betrachtet rund erscheinen. Weshalb zeichnen wir also Zacken?

Weil wir die Dinge nicht so wiedergeben, wie wir sie sind, sondern wie wir sie wahrnehmen. In der Linse unseres Auges gibt es kleine Nahtlinien, die während der Entwicklung des Auges entstanden sind. Betrachten wir eine kleine aber helle Lichtquelle (wie eine Strassenlaterne, Kerze oder eben einen Stern), so machen sich diese kleinen Mängel in unserem Auge bemerkbar. Das physikalische Phänomen nennt sich Beugung und lässt sich mit der Wellennatur des Lichts erklären. Durch das Fehlen der Lichtstrahlen, die durch die Nahtlinien in der Linse aufgehalten werden, entstehen auf der Netzhaut nebst dem Hauptmaximum (dort, wo eigentlich das Bild des Sterns sein sollte) mehrere Nebenmaxima (dort wo es wieder eine positive Interferenz gibt, weil mehrere Lichtstrahlen jeweils genau um eine oder mehrere Phasen verschoben sind). Wir nehmen dieses Hauptmaximum und alle Nebenmaxima als sternförmiges Bild wahr.

Dabei sieht der Stern für beide Augen ein bisschen anders aus, da in beiden Linsen die Nahtlinien ein bisschen anders liegen. Betrachtet man  den Nachthimmel jedoch nur mit einem Auge, so sehen alle Sterne genau gleich aus, da alle Zacken durch die gleichen Nahtlinien im Auge entstehen. Bei ganz genauem Hinschauen kann man sogar Farbverläufe erkennen. Dies liegt daran, dass die Nebenmaxima der unterschiedlichen Wellenlängen (und damit die unterschiedlichen Farben) nicht an den gleichen Stellen liegen, da die Phasenverschiebung von der Wellenlänge abhängt.

Es macht also Sinn Sterne mit Ecken zu zeichnen, da wir sie wegen den Nahtlinien in den Linsen unserer Augen tatsächlich so wahrnehmen (der wissenschaftliche Beweis dafür wurde 1997 in der unten verlinkten Arbeit geliefert). Will man wissenschaftlich ganz korrekt sein, so sollte man aber nicht mehr als zwei verschiedene Sterne zeichnen (da wir nur zwei Augen haben) und sie sollten einen regenbogenfarbigen Verlauf aufweisen.

Übrigens: das Beitragsbild ist eine Aufnahme des Hubble-Teleskops. Auch hier sind Sterne mit vier Ecken (und einem Farbverlauf) erkennbar. Warum ist das der Fall?

 

Quellen

MinutePhysics: Why are Stars Star-Shaped?
Wissenschaftliche Arbeit: R. Navarro and M. Angeles Losada, „Shape of stars and optical quality of the human eye„, J. Opt. Soc. Am. A  14, 353-359 (1997).
Beitragsbild: desktopwallpaperhd.net

Von Bäumen und Holzköpfen

Gepäckrückgabe am Flughafen: Es herrscht ein Gedränge am Fliessband. Jeder möchte möglichst weit vorne sein, um sein Gepäck sehen zu können. Dabei hätten alle eine viel bessere Übersicht, wenn jeder zwei Schritte vom Fliessband zurücktreten würde. Die ganze Gepäckrückgabe würde schneller und angenehmer verlaufen. Warum ist dies aber in der Realität nicht umsetzbar (wie täglich in Flughäfen bewiesen wird)?

Ökosysteme

Das System wäre instabil. Genau das gleiche kann man im Wald beobachten. Alle Bäume besitzen hohe Stämme, um mit ihren Blättern ans Sonnenlicht zu kommen. Das Bauen eines solchen Stammes und später das Heraufbefördern von Wasser und Nährstoffen bis zu den Blättern braucht sehr viel Energie. Für das einzelne Baum-Individuum wäre es folglich besser, nur einen kurzen Stamm zu haben. Dann könnte die Energie für Besseres gebraucht werden (mehr Äste beispielsweise). In der Gruppe muss der Baum aber schauen, dass er mit seinen Blättern Sonnenlicht einfangen kann und nicht von seinen Nachbarn „überschattet“ wird. Die langen Baumstämme sind also die Folge der gegenseitigen Konkurrenz. Würden die Bäume eine Art Pakt schliessen, dass jedes Individuum nur einen kurzen Stamm haben darf, so würde es allen besser gehen. Dieses System wäre aber instabil. Eine einzelne Mutation in einem der Bäume reicht aus, dass dieser einen Vorteil über die anderen hat und sich folglich zahlreicher fortpflanzen wird (natürliche Selektion). Die Bäume wachsen mit der Zeit immer weiter an. Irgendwann wird eine Grenze erreicht. Das Wachsen über diese Grenze hinaus würde so viel Energie benötigen, dass das zusätzliche Sonnenlicht, das dadurch eingefangen werden könnte, keinen Vorteil mehr bringt. Dann hat sich das System stabilisiert. Genau das ist heute in den Wäldern der Fall.

Bei der Gepäckrückgabe findet das genau Gleiche statt. Steht nur eine Person etwas weiter vorne, so können diejenigen hinter ihr die Gepäckstücke nicht mehr sehen. Sie müssen also auch weiter nach vorne kommen. Irgendwann drängen sich schliesslich alle um das Fliessband. Alle tun es, niemandem bringt es etwas.

 

Quellen

Quellen: Veritasium: Forest of Friendship, Baggage Carousel of Jerks
Quelle Beitragsbild: Luc Schnell

Gausssche Osterformel

Mond-Zyklen-1050x1680

Bereits im 1. Jahrhundert nach Christus wurde das Osterdatum auf den ersten Sonntag nach dem Frühlingsvollmond (Vollmond zwischen 21. März und 19. April) festgelegt. Das frühstmögliche Osterdatum im Jahr ist somit der 22. März (Vollmond am 21. März, Sonntag am 22. März), das späteste der 26. April (Vollmond und Sonntag am 19. April). Nun möchte man natürlich jedes Jahr das genaue Osterdatum kennen, nicht zuletzt da ja weitere Feiertage wie Auffahrt oder Pfingsten davon abhängen. Wie macht man das? Eine Möglichkeit ist natürlich, dass man das Datum jedes Jahr mit Tabellen der Mondzyklen und der Wochentage neu bestimmt. Für Mathematiker (später auch Informatiker) ist dies aber keine zufriedenstellende Lösung. Eine bessere Möglichkeit zur Bestimmung des Osterdatums entwickelte Karl Friedrich Gauss um 1800 – die Gaussche Osterformel. Diese funktioniert folgendermassen:

Gausssche Osterformel

Sei J das Jahr, dessen Osterdatum man berechnen möchte. M und N seien zwei Konstanten (gültig von 1900-2099), die 24 bzw. 5 betragen.

Dann mache man folgende Zuordnungen:

a = J mod 19 (Rest der Division von J durch 19)
b = J mod 4
c = J mod 7
d = (19a + M) mod 30
e = (2b + 4c + 6d + N) mod 7

Das Osterdatum fällt dann auf den (22 + d + e)-ten März oder (d + e – 9)-ten April.

Beispiel

J = 2014, M = 24, N = 5

a = 0 (da 2014/19 = 106 Rest 0)
b = 2 (da 2014/4 = 503 Rest 2)
c = 5
d = (0 + 24) mod 30 = 24
e = (4 + 20 + 144 + 5) mod 7 = 5

Ostern fällt 2014 auf den (24 + 5 – 9 = 20) – ten April (oh, das ist ja heute, was für ein Zufall).

Erklärung (Ansatz)

Mit der Variable d berechnet man, wie viele Tage nach dem 22. März der Frühlingsvollmond stattfindet. Der Mondzyklus hat gegenüber unserem Kalender eine Periode von ziemlich genau 19 Jahren (deshalb a = J mod 19). Pro Jahr verschiebt sich der Mondkalender um rund 19 Tage gegenüber unserem Kalender (deshalb 19*a). Ein Mondzyklus (von Vollmond bis Vollmond) dauert rund 30 Tage (deshalb d = (19a + M) mod 30).

Mit der Variable e berechnet man, wie viele Tage nach dem Frühlingsvollmond der nächste Sonntag (eben der Ostersonntag) stattfindet. (2b + 4c + N) mod 7 sind die Anzahl der Tage, die zwischen dem 22. März und dem auf dieses Datum folgende Sonntag liegen (mit den 2b werden die Schalttage einbezogen). Da man aber die Anzahl Tage zwischen dem Frühlingsvollmond und dem nächsten Sonntag wissen will, muss noch der Term 6d (-d würde zum selben Resultat führen) addiert werden.

Die Summe aus d und e ergibt die Anzahl Tage, die Ostern nach dem 22. März stattfindet. Addiert man diese mit 22, so erhält man das Osterdatum.

Ausnahmen

In seltenen Fällen kann die Gausssche Osterformel ein falsches Resultat liefern. Dies ist auf spätere Zusatzbestimmungen zur Berechnung des Osterdatums zurückzuführen. Die Osterformel wurde deshalb im 19. und 20 Jahrhundert noch verbessert.

 

Nun aber genug zur Mathematik hinter Ostern – ich wünsche allen schöne Tage!

 

Quellen

Beitragsbild: de.wallpaperpics.net
Wikipedia: Osterformel