Computertomographie (CT), Teil 1

Dieser Eintrag startet eine Serie von Beiträgen zur Computertomographie. Ziel ist es, im Rahmen einer HTL-Diplomarbeit ein (2-dimensionales) CT mit sichtbarem Licht zu bauen.

Setup

Das Grundprinzip ist in Abb. 1 gezeigt. In einer Ebene befinden sich verschiedene Objekte (blau), die mehr oder weniger Licht durchlassen. Aus einer bestimmten Richtung fallen parallele Lichtstrahlen (rot) ein, wodurch die Objekte einen Schatten auf einen Lichtdetektor werfen. Im medizinischen Bereich handelt es sich bei dem Licht um Röntgenstrahlen, aber das Grundprinzip ist für sichtbares Licht identisch.

SetupParallel_150dpi
Abb. 1: Parallele Lichtstrahlen (rot) beleuchten drei undurchsichtige Objekte (blau), wodurch auf dem Detektor ein Schattenbild entsteht. Dieses Schattenbild ändert sich je nach Richtung, aus der das Licht kommt.

Weiterlesen „Computertomographie (CT), Teil 1“

Wozu Mittelwerte?

Angenommen, man hat eine Messgröße, die man durch eine Zufallsvariable X modellieren kann. Der Erwartungswert von X sei \mu und die Standardabweichung sei \sigma.

Misst man diese Messgröße mehrfach, wird man voraussichtlich verschiedene Werte erhalten, deren Streuung durch die Verteilung von X modelliert wird.

Berechnet man den Mittelwert \bar{x} dieser n Messungen, kann man ihn durch die Zufallsvariable \overline{X} modellieren. Wenn die Messungen alle voneinander unabhängig waren, gilt für den Erwartungswert des Mittelwertes

\mathscr{E}(\overline{X}) = \mathscr{E}(X) = \mu

und für die Standardabweichung (»Standardfehler«) des Mittelwertes

\displaystyle\mathscr{S}(\overline{X}) = \frac{\mathscr{S}(X)}{\sqrt{n}} = \frac{\sigma}{\sqrt{n}}\,.

Diese Formeln gelten unabhängig von der konkreten Verteilung von X; die zweite wird oft auch als »Wurzel-n-Gesetz« bezeichnet.

Weiterlesen „Wozu Mittelwerte?“

Das empirische »Gesetz« der großen Zahlen

Im letzten Beitrag haben wir gesehen, wie in einem längeren Münzwurfexperiment die relative Häufigkeit für Kopf immer näher an 1/2 herangekommen ist. Obwohl es keine Garantie dafür gibt, dass es so sein muss, ist so eine Stabilisierung von relativen Häufigkeiten und anderen Messgrößen oft zu beobachten. Diese Erfahrungstatsache nennt man das empirische »Gesetz« der großen Zahlen.

Wie kann man sich das erklären?

Weiterlesen „Das empirische »Gesetz« der großen Zahlen“

Wahrscheinlichkeiten

Wahrscheinlichkeiten sind Erwartungen – um nicht zu sagen Hoffnungen – darüber, wie oft ein bestimmtes Ereignis bei oftmaliger Wiederholung eines Zufallsexperiments (unter gleichen Bedingungen) eintreten wird. Genauer gesagt, geht es um die relative Häufigkeit eines Ereignisses.

Diese Erwartungen hängen von unserem Informationsstand ab. Wie man zu sinnvollen Erwartungen kommt, ist ein Kapitel für sich. Erwartungen können falsch sein; selbst »richtige« Erwartungen können enttäuscht werden.

Darüber hinaus ist unklar, was mit oftmaliger Wiederholung genau gemeint ist. 100-mal, 1000-mal, 1 Milliarde Mal?

Für viele Münzwurfexperimente ist es sinnvoll, eine Wahrscheinlichkeit für Kopf von 1/2 anzunehmen. Die rote Linie in der folgenden Abbildung zeigt, wie sich die relative Häufigkeit für Kopf im Lauf einer längeren Münzwurfserie geändert hat.

relHK_200dpi
Die laufende relative Häufigkeit für Kopf als Funktion der Anzahl der Münzwürfe (rote Linie). Die grün gefüllten Bereiche stellen die 1\sigma-, 2\sigma– bzw. 3\sigma-Umgebungen unserer Erwartung dar. Die horizontale Achse ist logarithmisch skaliert, um den Beginn deutlicher zeigen zu können.

Weiterlesen „Wahrscheinlichkeiten“